aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S10569
1 files changed, 5607 insertions, 4962 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 01a0e63a3b..25a7b57218 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -116,9 +116,9 @@ _sk_seed_shader_skx:
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,98,137,3,0 // vaddps 0x38962(%rip){1to8},%ymm1,%ymm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,34,146,3,0 // vaddps 0x39222(%rip){1to8},%ymm1,%ymm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,91,137,3,0 // vbroadcastss 0x3895b(%rip),%ymm2 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,27,146,3,0 // vbroadcastss 0x3921b(%rip),%ymm2 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -132,16 +132,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,237,138,3,0 // vpaddd 0x38aed(%rip),%ymm8,%ymm8 # 38c20 <_sk_srcover_bgra_8888_sse2_lowp+0x468>
+ .byte 197,61,254,5,173,147,3,0 // vpaddd 0x393ad(%rip),%ymm8,%ymm8 # 394e0 <_sk_srcover_bgra_8888_sse2_lowp+0x468>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,37,137,3,0 // vpbroadcastd 0x38925(%rip),%ymm10 # 38a6c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,229,145,3,0 // vpbroadcastd 0x391e5(%rip),%ymm10 # 3932c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,10,137,3,0 // vpbroadcastd 0x3890a(%rip),%ymm12 # 38a70 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,5,137,3,0 // vpbroadcastd 0x38905(%rip),%ymm13 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,202,145,3,0 // vpbroadcastd 0x391ca(%rip),%ymm12 # 39330 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,197,145,3,0 // vpbroadcastd 0x391c5(%rip),%ymm13 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -156,8 +156,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,183,136,3,0 // vbroadcastss 0x388b7(%rip),%ymm9 # 38a78 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 98,114,61,56,168,13,177,136,3,0 // vfmadd213ps 0x388b1(%rip){1to8},%ymm8,%ymm9 # 38a7c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,119,145,3,0 // vbroadcastss 0x39177(%rip),%ymm9 # 39338 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 98,114,61,56,168,13,113,145,3,0 // vfmadd213ps 0x39171(%rip){1to8},%ymm8,%ymm9 # 3933c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -190,7 +190,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,62,136,3,0 // vbroadcastss 0x3883e(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,254,144,3,0 // vbroadcastss 0x390fe(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -201,7 +201,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,37,136,3,0 // vbroadcastss 0x38825(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,229,144,3,0 // vbroadcastss 0x390e5(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -247,7 +247,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,196,135,3,0 // vbroadcastss 0x387c4(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,132,144,3,0 // vbroadcastss 0x39084(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -263,7 +263,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,147,135,3,0 // vbroadcastss 0x38793(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,83,144,3,0 // vbroadcastss 0x39053(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -302,7 +302,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,54,135,3,0 // vbroadcastss 0x38736(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,246,143,3,0 // vbroadcastss 0x38ff6(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -315,7 +315,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,21,135,3,0 // vbroadcastss 0x38715(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,213,143,3,0 // vbroadcastss 0x38fd5(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -328,7 +328,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,244,134,3,0 // vbroadcastss 0x386f4(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,180,143,3,0 // vbroadcastss 0x38fb4(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -341,7 +341,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,207,134,3,0 // vbroadcastss 0x386cf(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,143,143,3,0 // vbroadcastss 0x38f8f(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -365,7 +365,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,150,134,3,0 // vbroadcastss 0x38696(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,86,143,3,0 // vbroadcastss 0x38f56(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -388,7 +388,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,69,134,3,0 // vbroadcastss 0x38645(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,5,143,3,0 // vbroadcastss 0x38f05(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -418,7 +418,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,240,133,3,0 // vbroadcastss 0x385f0(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,176,142,3,0 // vbroadcastss 0x38eb0(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -452,7 +452,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,116,133,3,0 // vbroadcastss 0x38574(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,52,142,3,0 // vbroadcastss 0x38e34(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -477,7 +477,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,31,133,3,0 // vbroadcastss 0x3851f(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,223,141,3,0 // vbroadcastss 0x38ddf(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -505,7 +505,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,190,132,3,0 // vbroadcastss 0x384be(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,126,141,3,0 // vbroadcastss 0x38d7e(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -527,7 +527,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,120,132,3,0 // vbroadcastss 0x38478(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,56,141,3,0 // vbroadcastss 0x38d38(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -539,7 +539,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,85,132,3,0 // vbroadcastss 0x38455(%rip),%ymm9 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,21,141,3,0 // vbroadcastss 0x38d15(%rip),%ymm9 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -603,7 +603,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,38,131,3,0 // vbroadcastss 0x38326(%rip),%ymm10 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,230,139,3,0 // vbroadcastss 0x38be6(%rip),%ymm10 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -660,7 +660,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,30,130,3,0 // vbroadcastss 0x3821e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,222,138,3,0 // vbroadcastss 0x38ade(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -714,7 +714,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,58,129,3,0 // vbroadcastss 0x3813a(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,250,137,3,0 // vbroadcastss 0x389fa(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -780,15 +780,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,24,128,3,0 // vbroadcastss 0x38018(%rip),%ymm11 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,216,136,3,0 // vbroadcastss 0x388d8(%rip),%ymm11 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,19,128,3,0 // vbroadcastss 0x38013(%rip),%ymm18 # 38a80 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 98,226,125,40,24,21,211,136,3,0 // vbroadcastss 0x388d3(%rip),%ymm18 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,1,128,3,0 // vbroadcastss 0x38001(%rip),%ymm19 # 38a84 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 98,226,125,40,24,29,193,136,3,0 // vbroadcastss 0x388c1(%rip),%ymm19 # 39344 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -910,11 +910,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,156,125,3,0 // vbroadcastss 0x37d9c(%rip),%ymm13 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,151,125,3,0 // vbroadcastss 0x37d97(%rip),%ymm14 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,92,134,3,0 // vbroadcastss 0x3865c(%rip),%ymm13 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,87,134,3,0 // vbroadcastss 0x38657(%rip),%ymm14 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,135,125,3,0 // vbroadcastss 0x37d87(%rip),%ymm16 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,71,134,3,0 // vbroadcastss 0x38647(%rip),%ymm16 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -971,7 +971,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,35,124,3,0 // vbroadcastss 0x37c23(%rip),%ymm1 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,227,132,3,0 // vbroadcastss 0x384e3(%rip),%ymm1 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1023,11 +1023,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,88,123,3,0 // vbroadcastss 0x37b58(%rip),%ymm13 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,83,123,3,0 // vbroadcastss 0x37b53(%rip),%ymm14 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,24,132,3,0 // vbroadcastss 0x38418(%rip),%ymm13 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,19,132,3,0 // vbroadcastss 0x38413(%rip),%ymm14 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,67,123,3,0 // vbroadcastss 0x37b43(%rip),%ymm16 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,3,132,3,0 // vbroadcastss 0x38403(%rip),%ymm16 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -1084,7 +1084,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,223,121,3,0 // vbroadcastss 0x379df(%rip),%ymm1 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,159,130,3,0 // vbroadcastss 0x3829f(%rip),%ymm1 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1108,11 +1108,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,168,121,3,0 // vbroadcastss 0x379a8(%rip),%ymm12 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,163,121,3,0 // vbroadcastss 0x379a3(%rip),%ymm13 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,104,130,3,0 // vbroadcastss 0x38268(%rip),%ymm12 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,99,130,3,0 // vbroadcastss 0x38263(%rip),%ymm13 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,148,121,3,0 // vbroadcastss 0x37994(%rip),%ymm15 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,84,130,3,0 // vbroadcastss 0x38254(%rip),%ymm15 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1170,7 +1170,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,37,120,3,0 // vbroadcastss 0x37825(%rip),%ymm11 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,229,128,3,0 // vbroadcastss 0x380e5(%rip),%ymm11 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1194,11 +1194,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,240,119,3,0 // vbroadcastss 0x377f0(%rip),%ymm12 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,235,119,3,0 // vbroadcastss 0x377eb(%rip),%ymm13 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,176,128,3,0 // vbroadcastss 0x380b0(%rip),%ymm12 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,171,128,3,0 // vbroadcastss 0x380ab(%rip),%ymm13 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,220,119,3,0 // vbroadcastss 0x377dc(%rip),%ymm15 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,156,128,3,0 // vbroadcastss 0x3809c(%rip),%ymm15 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1256,7 +1256,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,109,118,3,0 // vbroadcastss 0x3766d(%rip),%ymm11 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,45,127,3,0 // vbroadcastss 0x37f2d(%rip),%ymm11 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1299,9 +1299,9 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,196,117,3,0 // vbroadcastss 0x375c4(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,132,126,3,0 // vbroadcastss 0x37e84(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,227,117,3,0 // vbroadcastss 0x375e3(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,163,126,3,0 // vbroadcastss 0x37ea3(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -1443,9 +1443,9 @@ _sk_srcover_bgra_8888_skx:
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,135,115,3,0 // vbroadcastss 0x37387(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,71,124,3,0 // vbroadcastss 0x37c47(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,166,115,3,0 // vbroadcastss 0x373a6(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,102,124,3,0 // vbroadcastss 0x37c66(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -1574,7 +1574,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,138,113,3,0 // vbroadcastss 0x3718a(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,74,122,3,0 // vbroadcastss 0x37a4a(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -1586,7 +1586,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,104,113,3,0 // vminps 0x37168(%rip){1to8},%ymm3,%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,40,122,3,0 // vminps 0x37a28(%rip){1to8},%ymm3,%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -1597,7 +1597,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,78,113,3,0 // vminps 0x3714e(%rip){1to8},%ymm7,%ymm7 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,68,56,93,61,14,122,3,0 // vminps 0x37a0e(%rip){1to8},%ymm7,%ymm7 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -1629,7 +1629,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,14,113,3,0 // vbroadcastss 0x3710e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,206,121,3,0 // vbroadcastss 0x379ce(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -1683,9 +1683,9 @@ HIDDEN _sk_unpremul_skx
.globl _sk_unpremul_skx
FUNCTION(_sk_unpremul_skx)
_sk_unpremul_skx:
- .byte 196,98,125,24,5,169,112,3,0 // vbroadcastss 0x370a9(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,105,121,3,0 // vbroadcastss 0x37969(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 98,241,60,56,194,5,202,112,3,0,1 // vcmpltps 0x370ca(%rip){1to8},%ymm8,%k0 # 38a98 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 98,241,60,56,194,5,138,121,3,0,1 // vcmpltps 0x3798a(%rip){1to8},%ymm8,%k0 # 39358 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -1699,16 +1699,16 @@ HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,164,112,3,0 // vbroadcastss 0x370a4(%rip),%ymm8 # 38a9c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,100,121,3,0 // vbroadcastss 0x37964(%rip),%ymm8 # 3935c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,150,112,3,0 // vbroadcastss 0x37096(%rip),%ymm11 # 38aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,117,112,3,0 // vbroadcastss 0x37075(%rip),%ymm12 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,86,121,3,0 // vbroadcastss 0x37956(%rip),%ymm11 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,53,121,3,0 // vbroadcastss 0x37935(%rip),%ymm12 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,126,112,3,0 // vbroadcastss 0x3707e(%rip),%ymm14 # 38aa4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,62,121,3,0 // vbroadcastss 0x3793e(%rip),%ymm14 # 39364 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,116,112,3,0 // vbroadcastss 0x37074(%rip),%ymm10 # 38aa8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,52,121,3,0 // vbroadcastss 0x37934(%rip),%ymm10 # 39368 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -1734,16 +1734,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,247,111,3,0 // vbroadcastss 0x36ff7(%rip),%ymm8 # 38a9c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,183,120,3,0 // vbroadcastss 0x378b7(%rip),%ymm8 # 3935c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,233,111,3,0 // vbroadcastss 0x36fe9(%rip),%ymm11 # 38aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,200,111,3,0 // vbroadcastss 0x36fc8(%rip),%ymm12 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,169,120,3,0 // vbroadcastss 0x378a9(%rip),%ymm11 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,136,120,3,0 // vbroadcastss 0x37888(%rip),%ymm12 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,209,111,3,0 // vbroadcastss 0x36fd1(%rip),%ymm14 # 38aa4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,145,120,3,0 // vbroadcastss 0x37891(%rip),%ymm14 # 39364 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,199,111,3,0 // vbroadcastss 0x36fc7(%rip),%ymm10 # 38aa8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,135,120,3,0 // vbroadcastss 0x37887(%rip),%ymm10 # 39368 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -1770,19 +1770,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,84,111,3,0 // vbroadcastss 0x36f54(%rip),%ymm9 # 38aac <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,13,20,120,3,0 // vbroadcastss 0x37814(%rip),%ymm9 # 3936c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,74,111,3,0 // vbroadcastss 0x36f4a(%rip),%ymm11 # 38ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,69,111,3,0 // vbroadcastss 0x36f45(%rip),%ymm12 # 38ab4 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,10,120,3,0 // vbroadcastss 0x3780a(%rip),%ymm11 # 39370 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,5,120,3,0 // vbroadcastss 0x37805(%rip),%ymm12 # 39374 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,54,111,3,0 // vbroadcastss 0x36f36(%rip),%ymm14 # 38ab8 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
+ .byte 196,98,125,24,53,246,119,3,0 // vbroadcastss 0x377f6(%rip),%ymm14 # 39378 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,44,111,3,0 // vbroadcastss 0x36f2c(%rip),%ymm15 # 38abc <_sk_srcover_bgra_8888_sse2_lowp+0x304>
+ .byte 196,98,125,24,61,236,119,3,0 // vbroadcastss 0x377ec(%rip),%ymm15 # 3937c <_sk_srcover_bgra_8888_sse2_lowp+0x304>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,23,111,3,0 // vbroadcastss 0x36f17(%rip),%ymm13 # 38ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,215,119,3,0 // vbroadcastss 0x377d7(%rip),%ymm13 # 39380 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -1820,7 +1820,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,8,110,3,0 // vbroadcastss 0x36e08(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,200,118,3,0 // vbroadcastss 0x376c8(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -1829,23 +1829,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,42,110,3,0 // vbroadcastss 0x36e2a(%rip),%ymm11 # 38ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,29,234,118,3,0 // vbroadcastss 0x376ea(%rip),%ymm11 # 39384 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,5,110,3,0 // vbroadcastss 0x36e05(%rip),%ymm15 # 38ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,61,197,118,3,0 // vbroadcastss 0x376c5(%rip),%ymm15 # 39388 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,246,109,3,0 // vfmadd213ps 0x36df6(%rip){1to8},%ymm12,%ymm0 # 38acc <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,242,29,56,168,5,182,118,3,0 // vfmadd213ps 0x376b6(%rip){1to8},%ymm12,%ymm0 # 3938c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,222,109,3,0 // vmulps 0x36dde(%rip){1to8},%ymm0,%ymm0 # 38ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 98,241,124,56,89,5,158,118,3,0 // vmulps 0x3769e(%rip){1to8},%ymm0,%ymm0 # 39390 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,100,109,3,0 // vbroadcastss 0x36d64(%rip),%ymm11 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,36,118,3,0 // vbroadcastss 0x37624(%rip),%ymm11 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -1864,7 +1864,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,22,109,3,0 // vbroadcastss 0x36d16(%rip),%ymm16 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,226,125,40,24,5,214,117,3,0 // vbroadcastss 0x375d6(%rip),%ymm16 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -1872,27 +1872,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,75,109,3,0 // vfmsub231ps 0x36d4b(%rip){1to8},%ymm2,%ymm9 # 38ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 98,114,109,56,186,13,11,118,3,0 // vfmsub231ps 0x3760b(%rip){1to8},%ymm2,%ymm9 # 39388 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,59,109,3,0 // vaddps 0x36d3b(%rip){1to8},%ymm0,%ymm1 # 38ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 98,241,124,56,88,13,251,117,3,0 // vaddps 0x375fb(%rip){1to8},%ymm0,%ymm1 # 39394 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,42,109,3,0 // vbroadcastss 0x36d2a(%rip),%ymm19 # 38ad8 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 98,226,125,40,24,29,234,117,3,0 // vbroadcastss 0x375ea(%rip),%ymm19 # 39398 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,251,108,3,0 // vbroadcastss 0x36cfb(%rip),%ymm15 # 38ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,61,187,117,3,0 // vbroadcastss 0x375bb(%rip),%ymm15 # 39384 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,244,108,3,0 // vbroadcastss 0x36cf4(%rip),%ymm17 # 38acc <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,226,125,40,24,13,180,117,3,0 // vbroadcastss 0x375b4(%rip),%ymm17 # 3938c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,203,108,3,0 // vbroadcastss 0x36ccb(%rip),%ymm10 # 38ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,21,139,117,3,0 // vbroadcastss 0x3758b(%rip),%ymm10 # 39390 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -1914,7 +1914,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,81,108,3,0 // vaddps 0x36c51(%rip){1to8},%ymm0,%ymm0 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 98,241,124,56,88,5,17,117,3,0 // vaddps 0x37511(%rip){1to8},%ymm0,%ymm0 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -1963,10 +1963,10 @@ _sk_scale_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 1f67 <_sk_scale_u8_skx+0x4e>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,17,116,3,0 // vpand 0x37411(%rip),%xmm8,%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,57,219,5,209,124,3,0 // vpand 0x37cd1(%rip),%xmm8,%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,141,107,3,0 // vmulps 0x36b8d(%rip){1to8},%ymm8,%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,77,116,3,0 // vmulps 0x3744d(%rip){1to8},%ymm8,%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -2043,15 +2043,15 @@ _sk_scale_565_skx:
.byte 15,133,145,0,0,0 // jne 20e0 <_sk_scale_565_skx+0xb0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,128,106,3,0 // vpandd 0x36a80(%rip){1to8},%ymm8,%ymm9 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,64,115,3,0 // vpandd 0x37340(%rip){1to8},%ymm8,%ymm9 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,117,106,3,0 // vmulps 0x36a75(%rip){1to8},%ymm9,%ymm9 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,111,106,3,0 // vpandd 0x36a6f(%rip){1to8},%ymm8,%ymm10 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,53,115,3,0 // vmulps 0x37335(%rip){1to8},%ymm9,%ymm9 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,47,115,3,0 // vpandd 0x3732f(%rip){1to8},%ymm8,%ymm10 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,100,106,3,0 // vmulps 0x36a64(%rip){1to8},%ymm10,%ymm10 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,94,106,3,0 // vpandd 0x36a5e(%rip){1to8},%ymm8,%ymm8 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,36,115,3,0 // vmulps 0x37324(%rip){1to8},%ymm10,%ymm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,30,115,3,0 // vpandd 0x3731e(%rip){1to8},%ymm8,%ymm8 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,83,106,3,0 // vmulps 0x36a53(%rip){1to8},%ymm8,%ymm8 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,19,115,3,0 // vmulps 0x37313(%rip){1to8},%ymm8,%ymm8 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2147,10 +2147,10 @@ _sk_lerp_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,74 // jne 2235 <_sk_lerp_u8_skx+0x62>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,87,113,3,0 // vpand 0x37157(%rip),%xmm8,%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,57,219,5,23,122,3,0 // vpand 0x37a17(%rip),%xmm8,%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,211,104,3,0 // vmulps 0x368d3(%rip){1to8},%ymm8,%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,147,113,3,0 // vmulps 0x37193(%rip){1to8},%ymm8,%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -2230,15 +2230,15 @@ _sk_lerp_565_skx:
.byte 15,133,165,0,0,0 // jne 23c0 <_sk_lerp_565_skx+0xc4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,180,103,3,0 // vpandd 0x367b4(%rip){1to8},%ymm8,%ymm9 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,116,112,3,0 // vpandd 0x37074(%rip){1to8},%ymm8,%ymm9 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,169,103,3,0 // vmulps 0x367a9(%rip){1to8},%ymm9,%ymm9 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,163,103,3,0 // vpandd 0x367a3(%rip){1to8},%ymm8,%ymm10 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,105,112,3,0 // vmulps 0x37069(%rip){1to8},%ymm9,%ymm9 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,99,112,3,0 // vpandd 0x37063(%rip){1to8},%ymm8,%ymm10 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,152,103,3,0 // vmulps 0x36798(%rip){1to8},%ymm10,%ymm10 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,146,103,3,0 // vpandd 0x36792(%rip){1to8},%ymm8,%ymm8 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,88,112,3,0 // vmulps 0x37058(%rip){1to8},%ymm10,%ymm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,82,112,3,0 // vpandd 0x37052(%rip){1to8},%ymm8,%ymm8 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,135,103,3,0 // vmulps 0x36787(%rip){1to8},%ymm8,%ymm8 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,71,112,3,0 // vmulps 0x37047(%rip){1to8},%ymm8,%ymm8 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2338,7 +2338,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,218,101,3,0 // vmulps 0x365da(%rip){1to8},%ymm3,%ymm3 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,100,56,89,29,154,110,3,0 // vmulps 0x36e9a(%rip){1to8},%ymm3,%ymm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -2417,7 +2417,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,21,109,3,0 // vmovdqa 0x36d15(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,121,111,21,213,117,3,0 // vmovdqa 0x375d5(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2443,7 +2443,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,64,100,3,0 // vmulps 0x36440(%rip){1to8},%ymm3,%ymm3 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 98,241,100,56,89,29,0,109,3,0 // vmulps 0x36d00(%rip){1to8},%ymm3,%ymm3 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
@@ -2500,7 +2500,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,158,107,3,0 // vmovdqa 0x36b9e(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,121,111,21,94,116,3,0 // vmovdqa 0x3745e(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2521,7 +2521,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,81,98,3,0 // vbroadcastss 0x36251(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,17,107,3,0 // vbroadcastss 0x36b11(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
@@ -2590,7 +2590,7 @@ HIDDEN _sk_byte_tables_skx
FUNCTION(_sk_byte_tables_skx)
_sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,70,97,3,0 // vbroadcastss 0x36146(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,6,106,3,0 // vbroadcastss 0x36a06(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -2720,7 +2720,7 @@ _sk_byte_tables_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,24,95,3,0 // vbroadcastss 0x35f18(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,216,103,3,0 // vbroadcastss 0x367d8(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2841,7 +2841,7 @@ _sk_byte_tables_rgb_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,239,92,3,0 // vbroadcastss 0x35cef(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,175,101,3,0 // vbroadcastss 0x365af(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,194,125,49,202 // vpmovzxbd %xmm10,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2938,33 +2938,33 @@ _sk_parametric_r_skx:
.byte 98,114,125,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,227,91,3,0 // vbroadcastss 0x35be3(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,37,56,168,37,225,91,3,0 // vfmadd213ps 0x35be1(%rip){1to8},%ymm11,%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,211,91,3,0 // vandps 0x35bd3(%rip){1to8},%ymm10,%ymm10 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,41,91,3,0 // vorps 0x35b29(%rip){1to8},%ymm10,%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,37,199,91,3,0 // vfnmadd231ps 0x35bc7(%rip){1to8},%ymm10,%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,193,91,3,0 // vaddps 0x35bc1(%rip){1to8},%ymm10,%ymm10 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,29,188,91,3,0 // vbroadcastss 0x35bbc(%rip),%ymm11 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,163,100,3,0 // vbroadcastss 0x364a3(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,161,100,3,0 // vfmadd213ps 0x364a1(%rip){1to8},%ymm11,%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,147,100,3,0 // vandps 0x36493(%rip){1to8},%ymm10,%ymm10 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,233,99,3,0 // vorps 0x363e9(%rip){1to8},%ymm10,%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,135,100,3,0 // vfnmadd231ps 0x36487(%rip){1to8},%ymm10,%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,129,100,3,0 // vaddps 0x36481(%rip){1to8},%ymm10,%ymm10 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,124,100,3,0 // vbroadcastss 0x3647c(%rip),%ymm11 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,156,91,3,0 // vaddps 0x35b9c(%rip){1to8},%ymm0,%ymm0 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,5,150,91,3,0 // vfnmadd231ps 0x35b96(%rip){1to8},%ymm10,%ymm0 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,29,145,91,3,0 // vbroadcastss 0x35b91(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,124,56,88,5,92,100,3,0 // vaddps 0x3645c(%rip){1to8},%ymm0,%ymm0 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,5,86,100,3,0 // vfnmadd231ps 0x36456(%rip){1to8},%ymm10,%ymm0 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,81,100,3,0 // vbroadcastss 0x36451(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,135,91,3,0 // vbroadcastss 0x35b87(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,71,100,3,0 // vbroadcastss 0x36447(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,119,91,3,0 // vmulps 0x35b77(%rip){1to8},%ymm0,%ymm0 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,124,56,89,5,55,100,3,0 // vmulps 0x36437(%rip){1to8},%ymm0,%ymm0 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,143,90,3,0 // vminps 0x35a8f(%rip){1to8},%ymm0,%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,79,99,3,0 // vminps 0x3634f(%rip){1to8},%ymm0,%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -2981,33 +2981,33 @@ _sk_parametric_g_skx:
.byte 98,114,117,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,230,90,3,0 // vbroadcastss 0x35ae6(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,37,56,168,37,228,90,3,0 // vfmadd213ps 0x35ae4(%rip){1to8},%ymm11,%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,214,90,3,0 // vandps 0x35ad6(%rip){1to8},%ymm10,%ymm10 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,44,90,3,0 // vorps 0x35a2c(%rip){1to8},%ymm10,%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,37,202,90,3,0 // vfnmadd231ps 0x35aca(%rip){1to8},%ymm10,%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,196,90,3,0 // vaddps 0x35ac4(%rip){1to8},%ymm10,%ymm10 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,29,191,90,3,0 // vbroadcastss 0x35abf(%rip),%ymm11 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,166,99,3,0 // vbroadcastss 0x363a6(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,164,99,3,0 // vfmadd213ps 0x363a4(%rip){1to8},%ymm11,%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,150,99,3,0 // vandps 0x36396(%rip){1to8},%ymm10,%ymm10 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,236,98,3,0 // vorps 0x362ec(%rip){1to8},%ymm10,%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,138,99,3,0 // vfnmadd231ps 0x3638a(%rip){1to8},%ymm10,%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,132,99,3,0 // vaddps 0x36384(%rip){1to8},%ymm10,%ymm10 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,127,99,3,0 // vbroadcastss 0x3637f(%rip),%ymm11 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,159,90,3,0 // vaddps 0x35a9f(%rip){1to8},%ymm1,%ymm1 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,13,153,90,3,0 // vfnmadd231ps 0x35a99(%rip){1to8},%ymm10,%ymm1 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,29,148,90,3,0 // vbroadcastss 0x35a94(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,116,56,88,13,95,99,3,0 // vaddps 0x3635f(%rip){1to8},%ymm1,%ymm1 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,13,89,99,3,0 // vfnmadd231ps 0x36359(%rip){1to8},%ymm10,%ymm1 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,84,99,3,0 // vbroadcastss 0x36354(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,138,90,3,0 // vbroadcastss 0x35a8a(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,74,99,3,0 // vbroadcastss 0x3634a(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,122,90,3,0 // vmulps 0x35a7a(%rip){1to8},%ymm1,%ymm1 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,116,56,89,13,58,99,3,0 // vmulps 0x3633a(%rip){1to8},%ymm1,%ymm1 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,146,89,3,0 // vminps 0x35992(%rip){1to8},%ymm1,%ymm1 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,82,98,3,0 // vminps 0x36252(%rip){1to8},%ymm1,%ymm1 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3024,33 +3024,33 @@ _sk_parametric_b_skx:
.byte 98,114,109,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,233,89,3,0 // vbroadcastss 0x359e9(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,37,56,168,37,231,89,3,0 // vfmadd213ps 0x359e7(%rip){1to8},%ymm11,%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,217,89,3,0 // vandps 0x359d9(%rip){1to8},%ymm10,%ymm10 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,47,89,3,0 // vorps 0x3592f(%rip){1to8},%ymm10,%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,37,205,89,3,0 // vfnmadd231ps 0x359cd(%rip){1to8},%ymm10,%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,199,89,3,0 // vaddps 0x359c7(%rip){1to8},%ymm10,%ymm10 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,29,194,89,3,0 // vbroadcastss 0x359c2(%rip),%ymm11 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,169,98,3,0 // vbroadcastss 0x362a9(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,167,98,3,0 // vfmadd213ps 0x362a7(%rip){1to8},%ymm11,%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,153,98,3,0 // vandps 0x36299(%rip){1to8},%ymm10,%ymm10 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,239,97,3,0 // vorps 0x361ef(%rip){1to8},%ymm10,%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,141,98,3,0 // vfnmadd231ps 0x3628d(%rip){1to8},%ymm10,%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,135,98,3,0 // vaddps 0x36287(%rip){1to8},%ymm10,%ymm10 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,130,98,3,0 // vbroadcastss 0x36282(%rip),%ymm11 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,162,89,3,0 // vaddps 0x359a2(%rip){1to8},%ymm2,%ymm2 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,21,156,89,3,0 // vfnmadd231ps 0x3599c(%rip){1to8},%ymm10,%ymm2 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,29,151,89,3,0 // vbroadcastss 0x35997(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,108,56,88,21,98,98,3,0 // vaddps 0x36262(%rip){1to8},%ymm2,%ymm2 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,21,92,98,3,0 // vfnmadd231ps 0x3625c(%rip){1to8},%ymm10,%ymm2 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,87,98,3,0 // vbroadcastss 0x36257(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,141,89,3,0 // vbroadcastss 0x3598d(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,77,98,3,0 // vbroadcastss 0x3624d(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,125,89,3,0 // vmulps 0x3597d(%rip){1to8},%ymm2,%ymm2 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,108,56,89,21,61,98,3,0 // vmulps 0x3623d(%rip){1to8},%ymm2,%ymm2 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,149,88,3,0 // vminps 0x35895(%rip){1to8},%ymm2,%ymm2 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,85,97,3,0 // vminps 0x36155(%rip){1to8},%ymm2,%ymm2 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3067,33 +3067,33 @@ _sk_parametric_a_skx:
.byte 98,114,101,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,236,88,3,0 // vbroadcastss 0x358ec(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,37,56,168,37,234,88,3,0 // vfmadd213ps 0x358ea(%rip){1to8},%ymm11,%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,220,88,3,0 // vandps 0x358dc(%rip){1to8},%ymm10,%ymm10 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,50,88,3,0 // vorps 0x35832(%rip){1to8},%ymm10,%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,37,208,88,3,0 // vfnmadd231ps 0x358d0(%rip){1to8},%ymm10,%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,202,88,3,0 // vaddps 0x358ca(%rip){1to8},%ymm10,%ymm10 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,29,197,88,3,0 // vbroadcastss 0x358c5(%rip),%ymm11 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,172,97,3,0 // vbroadcastss 0x361ac(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,170,97,3,0 // vfmadd213ps 0x361aa(%rip){1to8},%ymm11,%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,156,97,3,0 // vandps 0x3619c(%rip){1to8},%ymm10,%ymm10 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,242,96,3,0 // vorps 0x360f2(%rip){1to8},%ymm10,%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,144,97,3,0 // vfnmadd231ps 0x36190(%rip){1to8},%ymm10,%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,138,97,3,0 // vaddps 0x3618a(%rip){1to8},%ymm10,%ymm10 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,133,97,3,0 // vbroadcastss 0x36185(%rip),%ymm11 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,165,88,3,0 // vaddps 0x358a5(%rip){1to8},%ymm3,%ymm3 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,29,159,88,3,0 // vfnmadd231ps 0x3589f(%rip){1to8},%ymm10,%ymm3 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,29,154,88,3,0 // vbroadcastss 0x3589a(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,100,56,88,29,101,97,3,0 // vaddps 0x36165(%rip){1to8},%ymm3,%ymm3 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,29,95,97,3,0 // vfnmadd231ps 0x3615f(%rip){1to8},%ymm10,%ymm3 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,90,97,3,0 // vbroadcastss 0x3615a(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,144,88,3,0 // vbroadcastss 0x35890(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,80,97,3,0 // vbroadcastss 0x36150(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,128,88,3,0 // vmulps 0x35880(%rip){1to8},%ymm3,%ymm3 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,100,56,89,29,64,97,3,0 // vmulps 0x36140(%rip){1to8},%ymm3,%ymm3 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,219 // vaddps %ymm3,%ymm10,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,152,87,3,0 // vminps 0x35798(%rip){1to8},%ymm3,%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,88,96,3,0 // vminps 0x36058(%rip){1to8},%ymm3,%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3104,33 +3104,33 @@ _sk_gamma_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,226,125,40,24,48 // vbroadcastss (%rax),%ymm22
.byte 197,124,91,200 // vcvtdq2ps %ymm0,%ymm9
- .byte 196,98,125,24,21,23,88,3,0 // vbroadcastss 0x35817(%rip),%ymm10 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,29,18,88,3,0 // vbroadcastss 0x35812(%rip),%ymm11 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,21,215,96,3,0 // vbroadcastss 0x360d7(%rip),%ymm10 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,29,210,96,3,0 // vbroadcastss 0x360d2(%rip),%ymm11 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,195 // vandps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,37,100,87,3,0 // vbroadcastss 0x35764(%rip),%ymm12 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,36,96,3,0 // vbroadcastss 0x36024(%rip),%ymm12 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,250,87,3,0 // vbroadcastss 0x357fa(%rip),%ymm13 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,186,96,3,0 // vbroadcastss 0x360ba(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,45,168,205 // vfmadd213ps %ymm13,%ymm10,%ymm9
- .byte 196,98,125,24,53,240,87,3,0 // vbroadcastss 0x357f0(%rip),%ymm14 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,176,96,3,0 // vbroadcastss 0x360b0(%rip),%ymm14 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,125,188,206 // vfnmadd231ps %ymm14,%ymm0,%ymm9
- .byte 196,98,125,24,61,230,87,3,0 // vbroadcastss 0x357e6(%rip),%ymm15 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,61,166,96,3,0 // vbroadcastss 0x360a6(%rip),%ymm15 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 98,226,125,40,24,5,219,87,3,0 // vbroadcastss 0x357db(%rip),%ymm16 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,5,155,96,3,0 // vbroadcastss 0x3609b(%rip),%ymm16 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,124,32,94,192 // vdivps %ymm0,%ymm16,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 98,177,124,40,89,198 // vmulps %ymm22,%ymm0,%ymm0
.byte 196,99,125,8,200,1 // vroundps $0x1,%ymm0,%ymm9
.byte 196,65,124,92,201 // vsubps %ymm9,%ymm0,%ymm9
- .byte 98,226,125,40,24,13,186,87,3,0 // vbroadcastss 0x357ba(%rip),%ymm17 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,13,122,96,3,0 // vbroadcastss 0x3607a(%rip),%ymm17 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,124,40,88,193 // vaddps %ymm17,%ymm0,%ymm0
- .byte 98,226,125,40,24,21,174,87,3,0 // vbroadcastss 0x357ae(%rip),%ymm18 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,21,110,96,3,0 // vbroadcastss 0x3606e(%rip),%ymm18 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,53,40,188,194 // vfnmadd231ps %ymm18,%ymm9,%ymm0
- .byte 98,226,125,40,24,29,162,87,3,0 // vbroadcastss 0x357a2(%rip),%ymm19 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,29,98,96,3,0 // vbroadcastss 0x36062(%rip),%ymm19 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,100,32,92,201 // vsubps %ymm9,%ymm19,%ymm9
- .byte 98,226,125,40,24,37,150,87,3,0 // vbroadcastss 0x35796(%rip),%ymm20 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,37,86,96,3,0 // vbroadcastss 0x36056(%rip),%ymm20 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,92,32,94,201 // vdivps %ymm9,%ymm20,%ymm9
.byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
- .byte 196,98,125,24,13,134,87,3,0 // vbroadcastss 0x35786(%rip),%ymm9 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,13,70,96,3,0 // vbroadcastss 0x36046(%rip),%ymm9 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 98,225,124,40,91,233 // vcvtdq2ps %ymm1,%ymm21
@@ -3172,27 +3172,102 @@ _sk_gamma_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_gamma_dst_skx
+.globl _sk_gamma_dst_skx
+FUNCTION(_sk_gamma_dst_skx)
+_sk_gamma_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,226,125,40,24,48 // vbroadcastss (%rax),%ymm22
+ .byte 197,124,91,204 // vcvtdq2ps %ymm4,%ymm9
+ .byte 196,98,125,24,21,58,95,3,0 // vbroadcastss 0x35f3a(%rip),%ymm10 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,29,53,95,3,0 // vbroadcastss 0x35f35(%rip),%ymm11 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,193,92,84,227 // vandps %ymm11,%ymm4,%ymm4
+ .byte 196,98,125,24,37,135,94,3,0 // vbroadcastss 0x35e87(%rip),%ymm12 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,193,92,86,228 // vorps %ymm12,%ymm4,%ymm4
+ .byte 196,98,125,24,45,29,95,3,0 // vbroadcastss 0x35f1d(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,66,45,168,205 // vfmadd213ps %ymm13,%ymm10,%ymm9
+ .byte 196,98,125,24,53,19,95,3,0 // vbroadcastss 0x35f13(%rip),%ymm14 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,66,93,188,206 // vfnmadd231ps %ymm14,%ymm4,%ymm9
+ .byte 196,98,125,24,61,9,95,3,0 // vbroadcastss 0x35f09(%rip),%ymm15 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,193,92,88,231 // vaddps %ymm15,%ymm4,%ymm4
+ .byte 98,226,125,40,24,5,254,94,3,0 // vbroadcastss 0x35efe(%rip),%ymm16 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,241,124,32,94,228 // vdivps %ymm4,%ymm16,%ymm4
+ .byte 197,180,92,228 // vsubps %ymm4,%ymm9,%ymm4
+ .byte 98,177,92,40,89,230 // vmulps %ymm22,%ymm4,%ymm4
+ .byte 196,99,125,8,204,1 // vroundps $0x1,%ymm4,%ymm9
+ .byte 196,65,92,92,201 // vsubps %ymm9,%ymm4,%ymm9
+ .byte 98,226,125,40,24,13,221,94,3,0 // vbroadcastss 0x35edd(%rip),%ymm17 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,177,92,40,88,225 // vaddps %ymm17,%ymm4,%ymm4
+ .byte 98,226,125,40,24,21,209,94,3,0 // vbroadcastss 0x35ed1(%rip),%ymm18 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,178,53,40,188,226 // vfnmadd231ps %ymm18,%ymm9,%ymm4
+ .byte 98,226,125,40,24,29,197,94,3,0 // vbroadcastss 0x35ec5(%rip),%ymm19 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,81,100,32,92,201 // vsubps %ymm9,%ymm19,%ymm9
+ .byte 98,226,125,40,24,37,185,94,3,0 // vbroadcastss 0x35eb9(%rip),%ymm20 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,81,92,32,94,201 // vdivps %ymm9,%ymm20,%ymm9
+ .byte 196,193,92,88,225 // vaddps %ymm9,%ymm4,%ymm4
+ .byte 196,98,125,24,13,169,94,3,0 // vbroadcastss 0x35ea9(%rip),%ymm9 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,193,92,89,225 // vmulps %ymm9,%ymm4,%ymm4
+ .byte 197,253,91,228 // vcvtps2dq %ymm4,%ymm4
+ .byte 98,225,124,40,91,237 // vcvtdq2ps %ymm5,%ymm21
+ .byte 196,193,84,84,235 // vandps %ymm11,%ymm5,%ymm5
+ .byte 196,193,84,86,236 // vorps %ymm12,%ymm5,%ymm5
+ .byte 98,194,45,40,168,237 // vfmadd213ps %ymm13,%ymm10,%ymm21
+ .byte 98,194,85,40,188,238 // vfnmadd231ps %ymm14,%ymm5,%ymm21
+ .byte 196,193,84,88,239 // vaddps %ymm15,%ymm5,%ymm5
+ .byte 98,241,124,32,94,237 // vdivps %ymm5,%ymm16,%ymm5
+ .byte 98,241,84,32,92,237 // vsubps %ymm5,%ymm21,%ymm5
+ .byte 98,177,84,40,89,238 // vmulps %ymm22,%ymm5,%ymm5
+ .byte 196,99,125,8,197,1 // vroundps $0x1,%ymm5,%ymm8
+ .byte 196,65,84,92,192 // vsubps %ymm8,%ymm5,%ymm8
+ .byte 98,177,84,40,88,233 // vaddps %ymm17,%ymm5,%ymm5
+ .byte 98,178,61,40,188,234 // vfnmadd231ps %ymm18,%ymm8,%ymm5
+ .byte 98,81,100,32,92,192 // vsubps %ymm8,%ymm19,%ymm8
+ .byte 98,81,92,32,94,192 // vdivps %ymm8,%ymm20,%ymm8
+ .byte 196,193,84,88,232 // vaddps %ymm8,%ymm5,%ymm5
+ .byte 196,193,84,89,233 // vmulps %ymm9,%ymm5,%ymm5
+ .byte 197,253,91,237 // vcvtps2dq %ymm5,%ymm5
+ .byte 197,124,91,198 // vcvtdq2ps %ymm6,%ymm8
+ .byte 196,193,76,84,243 // vandps %ymm11,%ymm6,%ymm6
+ .byte 196,193,76,86,244 // vorps %ymm12,%ymm6,%ymm6
+ .byte 196,66,45,168,197 // vfmadd213ps %ymm13,%ymm10,%ymm8
+ .byte 196,66,77,188,198 // vfnmadd231ps %ymm14,%ymm6,%ymm8
+ .byte 196,193,76,88,247 // vaddps %ymm15,%ymm6,%ymm6
+ .byte 98,241,124,32,94,246 // vdivps %ymm6,%ymm16,%ymm6
+ .byte 197,188,92,246 // vsubps %ymm6,%ymm8,%ymm6
+ .byte 98,177,76,40,89,246 // vmulps %ymm22,%ymm6,%ymm6
+ .byte 196,99,125,8,198,1 // vroundps $0x1,%ymm6,%ymm8
+ .byte 196,65,76,92,192 // vsubps %ymm8,%ymm6,%ymm8
+ .byte 98,177,76,40,88,241 // vaddps %ymm17,%ymm6,%ymm6
+ .byte 98,178,61,40,188,242 // vfnmadd231ps %ymm18,%ymm8,%ymm6
+ .byte 98,81,100,32,92,192 // vsubps %ymm8,%ymm19,%ymm8
+ .byte 98,81,92,32,94,192 // vdivps %ymm8,%ymm20,%ymm8
+ .byte 196,193,76,88,240 // vaddps %ymm8,%ymm6,%ymm6
+ .byte 196,193,76,89,241 // vmulps %ymm9,%ymm6,%ymm6
+ .byte 197,253,91,246 // vcvtps2dq %ymm6,%ymm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,178,86,3,0 // vbroadcastss 0x356b2(%rip),%ymm8 # 38b2c <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,17,86,3,0 // vbroadcastss 0x35611(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,164,86,3,0 // vbroadcastss 0x356a4(%rip),%ymm10 # 38b30 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,213,93,3,0 // vbroadcastss 0x35dd5(%rip),%ymm8 # 393ec <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,52,93,3,0 // vbroadcastss 0x35d34(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,199,93,3,0 // vbroadcastss 0x35dc7(%rip),%ymm10 # 393f0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,148,86,3,0 // vfmadd213ps 0x35694(%rip){1to8},%ymm0,%ymm8 # 38b34 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 98,241,60,56,89,5,142,86,3,0 // vmulps 0x3568e(%rip){1to8},%ymm8,%ymm0 # 38b38 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 98,242,125,56,152,13,136,86,3,0 // vfmadd132ps 0x35688(%rip){1to8},%ymm0,%ymm1 # 38b3c <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 98,242,125,56,156,21,130,86,3,0 // vfnmadd132ps 0x35682(%rip){1to8},%ymm0,%ymm2 # 38b40 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 98,114,125,56,168,5,183,93,3,0 // vfmadd213ps 0x35db7(%rip){1to8},%ymm0,%ymm8 # 393f4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 98,241,60,56,89,5,177,93,3,0 // vmulps 0x35db1(%rip){1to8},%ymm8,%ymm0 # 393f8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 98,242,125,56,152,13,171,93,3,0 // vfmadd132ps 0x35dab(%rip){1to8},%ymm0,%ymm1 # 393fc <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 98,242,125,56,156,21,165,93,3,0 // vfnmadd132ps 0x35da5(%rip){1to8},%ymm0,%ymm2 # 39400 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,116,86,3,0 // vbroadcastss 0x35674(%rip),%ymm9 # 38b44 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,151,93,3,0 // vbroadcastss 0x35d97(%rip),%ymm9 # 39404 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,98,86,3,0 // vbroadcastss 0x35662(%rip),%ymm11 # 38b48 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,133,93,3,0 // vbroadcastss 0x35d85(%rip),%ymm11 # 39408 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,88,86,3,0 // vbroadcastss 0x35658(%rip),%ymm12 # 38b4c <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,123,93,3,0 // vbroadcastss 0x35d7b(%rip),%ymm12 # 3940c <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -3209,8 +3284,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,253,85,3,0 // vmulps 0x355fd(%rip){1to8},%ymm8,%ymm0 # 38b50 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 98,241,108,56,89,21,247,85,3,0 // vmulps 0x355f7(%rip){1to8},%ymm2,%ymm2 # 38b54 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 98,241,60,56,89,5,32,93,3,0 // vmulps 0x35d20(%rip){1to8},%ymm8,%ymm0 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 98,241,108,56,89,21,26,93,3,0 // vmulps 0x35d1a(%rip){1to8},%ymm2,%ymm2 # 39414 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3225,12 +3300,12 @@ _sk_load_a8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 35aa <_sk_load_a8_skx+0x49>
+ .byte 117,49 // jne 3747 <_sk_load_a8_skx+0x49>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,201,93,3,0 // vpand 0x35dc9(%rip),%xmm0,%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,249,219,5,236,100,3,0 // vpand 0x364ec(%rip),%xmm0,%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,70,85,3,0 // vmulps 0x35546(%rip){1to8},%ymm0,%ymm3 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,105,92,3,0 // vmulps 0x35c69(%rip){1to8},%ymm0,%ymm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3241,15 +3316,15 @@ _sk_load_a8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 357f <_sk_load_a8_skx+0x1e>
+ .byte 119,192 // ja 371c <_sk_load_a8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3650 <_sk_load_a8_skx+0xef>
+ .byte 76,141,21,133,0,0,0 // lea 0x85(%rip),%r10 # 37ec <_sk_load_a8_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,161 // jmp 357f <_sk_load_a8_skx+0x1e>
+ .byte 235,161 // jmp 371c <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -3257,7 +3332,7 @@ _sk_load_a8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq 357f <_sk_load_a8_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 371c <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -3270,23 +3345,24 @@ _sk_load_a8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,50,255,255,255 // jmpq 357f <_sk_load_a8_skx+0x1e>
- .byte 15,31,0 // nopl (%rax)
- .byte 131,255,255 // cmp $0xffffffff,%edi
- .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
+ .byte 233,50,255,255,255 // jmpq 371c <_sk_load_a8_skx+0x1e>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 132,255 // test %bh,%bh
.byte 255 // (bad)
+ .byte 255,158,255,255,255,143 // lcall *-0x70000001(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 221,255 // (bad)
.byte 255 // (bad)
- .byte 255,210 // callq *%rdx
+ .byte 222,255 // fdivrp %st,%st(7)
.byte 255 // (bad)
+ .byte 255,211 // callq *%rbx
.byte 255 // (bad)
- .byte 255,199 // inc %edi
.byte 255 // (bad)
+ .byte 255,200 // dec %eax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 184 // .byte 0xb8
+ .byte 255 // (bad)
+ .byte 185 // .byte 0xb9
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -3302,12 +3378,12 @@ _sk_load_a8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 36b5 <_sk_load_a8_dst_skx+0x49>
+ .byte 117,49 // jne 3851 <_sk_load_a8_dst_skx+0x49>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,190,92,3,0 // vpand 0x35cbe(%rip),%xmm4,%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,217,219,37,226,99,3,0 // vpand 0x363e2(%rip),%xmm4,%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,59,84,3,0 // vmulps 0x3543b(%rip){1to8},%ymm4,%ymm7 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,61,95,91,3,0 // vmulps 0x35b5f(%rip){1to8},%ymm4,%ymm7 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -3318,15 +3394,15 @@ _sk_load_a8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 368a <_sk_load_a8_dst_skx+0x1e>
+ .byte 119,192 // ja 3826 <_sk_load_a8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 3758 <_sk_load_a8_dst_skx+0xec>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 38f4 <_sk_load_a8_dst_skx+0xec>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,161 // jmp 368a <_sk_load_a8_dst_skx+0x1e>
+ .byte 235,161 // jmp 3826 <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -3334,7 +3410,7 @@ _sk_load_a8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq 368a <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 3826 <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -3347,7 +3423,7 @@ _sk_load_a8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,50,255,255,255 // jmpq 368a <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,50,255,255,255 // jmpq 3826 <_sk_load_a8_dst_skx+0x1e>
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
.byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax)
@@ -3423,7 +3499,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,126,82,3,0 // vmulps 0x3527e(%rip){1to8},%ymm0,%ymm3 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,162,89,3,0 // vmulps 0x359a2(%rip){1to8},%ymm0,%ymm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3444,13 +3520,13 @@ _sk_store_a8_skx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 98,113,100,56,89,5,254,81,3,0 // vmulps 0x351fe(%rip){1to8},%ymm3,%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 98,113,100,56,89,5,34,89,3,0 // vmulps 0x35922(%rip){1to8},%ymm3,%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 38b9 <_sk_store_a8_skx+0x40>
+ .byte 117,10 // jne 3a55 <_sk_store_a8_skx+0x40>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3458,25 +3534,25 @@ _sk_store_a8_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 38b5 <_sk_store_a8_skx+0x3c>
+ .byte 119,235 // ja 3a51 <_sk_store_a8_skx+0x3c>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 3928 <_sk_store_a8_skx+0xaf>
+ .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 3ac4 <_sk_store_a8_skx+0xaf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,201 // jmp 38b5 <_sk_store_a8_skx+0x3c>
+ .byte 235,201 // jmp 3a51 <_sk_store_a8_skx+0x3c>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
.byte 98,18,126,8,50,4,24 // vpmovqb %xmm8,(%r8,%r11,1)
- .byte 235,179 // jmp 38b5 <_sk_store_a8_skx+0x3c>
+ .byte 235,179 // jmp 3a51 <_sk_store_a8_skx+0x3c>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 98,18,126,8,49,4,24 // vpmovdb %xmm8,(%r8,%r11,1)
- .byte 235,141 // jmp 38b5 <_sk_store_a8_skx+0x3c>
+ .byte 235,141 // jmp 3a51 <_sk_store_a8_skx+0x3c>
.byte 187,255,255,255,204 // mov $0xccffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -3509,14 +3585,14 @@ _sk_load_g8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3992 <_sk_load_g8_skx+0x4e>
+ .byte 117,54 // jne 3b2e <_sk_load_g8_skx+0x4e>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,230,89,3,0 // vpand 0x359e6(%rip),%xmm0,%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,249,219,5,10,97,3,0 // vpand 0x3610a(%rip),%xmm0,%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,99,81,3,0 // vmulps 0x35163(%rip){1to8},%ymm0,%ymm0 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,135,88,3,0 // vmulps 0x35887(%rip){1to8},%ymm0,%ymm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,224,80,3,0 // vbroadcastss 0x350e0(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,4,88,3,0 // vbroadcastss 0x35804(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -3525,15 +3601,15 @@ _sk_load_g8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3962 <_sk_load_g8_skx+0x1e>
+ .byte 119,187 // ja 3afe <_sk_load_g8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3a38 <_sk_load_g8_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3bd4 <_sk_load_g8_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,156 // jmp 3962 <_sk_load_g8_skx+0x1e>
+ .byte 235,156 // jmp 3afe <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -3541,7 +3617,7 @@ _sk_load_g8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq 3962 <_sk_load_g8_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3afe <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -3554,7 +3630,7 @@ _sk_load_g8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,45,255,255,255 // jmpq 3962 <_sk_load_g8_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3afe <_sk_load_g8_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -3586,14 +3662,14 @@ _sk_load_g8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3aa2 <_sk_load_g8_dst_skx+0x4e>
+ .byte 117,54 // jne 3c3e <_sk_load_g8_dst_skx+0x4e>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,214,88,3,0 // vpand 0x358d6(%rip),%xmm4,%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,217,219,37,250,95,3,0 // vpand 0x35ffa(%rip),%xmm4,%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,83,80,3,0 // vmulps 0x35053(%rip){1to8},%ymm4,%ymm4 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,37,119,87,3,0 // vmulps 0x35777(%rip){1to8},%ymm4,%ymm4 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,208,79,3,0 // vbroadcastss 0x34fd0(%rip),%ymm7 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,244,86,3,0 // vbroadcastss 0x356f4(%rip),%ymm7 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -3602,15 +3678,15 @@ _sk_load_g8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3a72 <_sk_load_g8_dst_skx+0x1e>
+ .byte 119,187 // ja 3c0e <_sk_load_g8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3b48 <_sk_load_g8_dst_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3ce4 <_sk_load_g8_dst_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,156 // jmp 3a72 <_sk_load_g8_dst_skx+0x1e>
+ .byte 235,156 // jmp 3c0e <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -3618,7 +3694,7 @@ _sk_load_g8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq 3a72 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3c0e <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -3631,7 +3707,7 @@ _sk_load_g8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,45,255,255,255 // jmpq 3a72 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3c0e <_sk_load_g8_dst_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -3707,9 +3783,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,142,78,3,0 // vmulps 0x34e8e(%rip){1to8},%ymm0,%ymm0 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,178,85,3,0 // vmulps 0x355b2(%rip){1to8},%ymm0,%ymm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,11,78,3,0 // vbroadcastss 0x34e0b(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,47,85,3,0 // vbroadcastss 0x3552f(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -3730,42 +3806,42 @@ _sk_load_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3ce9 <_sk_load_565_skx+0x7b>
+ .byte 117,96 // jne 3e85 <_sk_load_565_skx+0x7b>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,70,78,3,0 // vpandd 0x34e46(%rip){1to8},%ymm2,%ymm0 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,106,85,3,0 // vpandd 0x3556a(%rip){1to8},%ymm2,%ymm0 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,60,78,3,0 // vmulps 0x34e3c(%rip){1to8},%ymm0,%ymm0 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,54,78,3,0 // vpandd 0x34e36(%rip){1to8},%ymm2,%ymm1 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,96,85,3,0 // vmulps 0x35560(%rip){1to8},%ymm0,%ymm0 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,90,85,3,0 // vpandd 0x3555a(%rip){1to8},%ymm2,%ymm1 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,44,78,3,0 // vmulps 0x34e2c(%rip){1to8},%ymm1,%ymm1 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,38,78,3,0 // vpandd 0x34e26(%rip){1to8},%ymm2,%ymm2 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,80,85,3,0 // vmulps 0x35550(%rip){1to8},%ymm1,%ymm1 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,74,85,3,0 // vpandd 0x3554a(%rip){1to8},%ymm2,%ymm2 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,28,78,3,0 // vmulps 0x34e1c(%rip){1to8},%ymm2,%ymm2 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,64,85,3,0 // vmulps 0x35540(%rip){1to8},%ymm2,%ymm2 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,129,77,3,0 // vbroadcastss 0x34d81(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,165,84,3,0 // vbroadcastss 0x354a5(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 3c8f <_sk_load_565_skx+0x21>
+ .byte 119,145 // ja 3e2b <_sk_load_565_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 3d84 <_sk_load_565_skx+0x116>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 3f20 <_sk_load_565_skx+0x116>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,111,255,255,255 // jmpq 3c8f <_sk_load_565_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 3e2b <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,72,255,255,255 // jmpq 3c8f <_sk_load_565_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 3e2b <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -3775,7 +3851,7 @@ _sk_load_565_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,14,255,255,255 // jmpq 3c8f <_sk_load_565_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 3e2b <_sk_load_565_skx+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -3808,42 +3884,42 @@ _sk_load_565_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3e1b <_sk_load_565_dst_skx+0x7b>
+ .byte 117,96 // jne 3fb7 <_sk_load_565_dst_skx+0x7b>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,20,77,3,0 // vpandd 0x34d14(%rip){1to8},%ymm6,%ymm4 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,77,56,219,37,56,84,3,0 // vpandd 0x35438(%rip){1to8},%ymm6,%ymm4 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,10,77,3,0 // vmulps 0x34d0a(%rip){1to8},%ymm4,%ymm4 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,77,56,219,45,4,77,3,0 // vpandd 0x34d04(%rip){1to8},%ymm6,%ymm5 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,92,56,89,37,46,84,3,0 // vmulps 0x3542e(%rip){1to8},%ymm4,%ymm4 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,77,56,219,45,40,84,3,0 // vpandd 0x35428(%rip){1to8},%ymm6,%ymm5 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,250,76,3,0 // vmulps 0x34cfa(%rip){1to8},%ymm5,%ymm5 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,77,56,219,53,244,76,3,0 // vpandd 0x34cf4(%rip){1to8},%ymm6,%ymm6 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,84,56,89,45,30,84,3,0 // vmulps 0x3541e(%rip){1to8},%ymm5,%ymm5 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,77,56,219,53,24,84,3,0 // vpandd 0x35418(%rip){1to8},%ymm6,%ymm6 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,234,76,3,0 // vmulps 0x34cea(%rip){1to8},%ymm6,%ymm6 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,76,56,89,53,14,84,3,0 // vmulps 0x3540e(%rip){1to8},%ymm6,%ymm6 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,79,76,3,0 // vbroadcastss 0x34c4f(%rip),%ymm7 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,115,83,3,0 // vbroadcastss 0x35373(%rip),%ymm7 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 3dc1 <_sk_load_565_dst_skx+0x21>
+ .byte 119,145 // ja 3f5d <_sk_load_565_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 3eb4 <_sk_load_565_dst_skx+0x114>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 4050 <_sk_load_565_dst_skx+0x114>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,111,255,255,255 // jmpq 3dc1 <_sk_load_565_dst_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 3f5d <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,72,255,255,255 // jmpq 3dc1 <_sk_load_565_dst_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 3f5d <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -3853,7 +3929,7 @@ _sk_load_565_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,14,255,255,255 // jmpq 3dc1 <_sk_load_565_dst_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 3f5d <_sk_load_565_dst_skx+0x21>
.byte 144 // nop
.byte 144 // nop
.byte 255 // (bad)
@@ -3929,17 +4005,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,47,75,3,0 // vpandd 0x34b2f(%rip){1to8},%ymm2,%ymm0 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,83,82,3,0 // vpandd 0x35253(%rip){1to8},%ymm2,%ymm0 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,37,75,3,0 // vmulps 0x34b25(%rip){1to8},%ymm0,%ymm0 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,31,75,3,0 // vpandd 0x34b1f(%rip){1to8},%ymm2,%ymm1 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,73,82,3,0 // vmulps 0x35249(%rip){1to8},%ymm0,%ymm0 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,67,82,3,0 // vpandd 0x35243(%rip){1to8},%ymm2,%ymm1 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,21,75,3,0 // vmulps 0x34b15(%rip){1to8},%ymm1,%ymm1 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,15,75,3,0 // vpandd 0x34b0f(%rip){1to8},%ymm2,%ymm2 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,57,82,3,0 // vmulps 0x35239(%rip){1to8},%ymm1,%ymm1 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,51,82,3,0 // vpandd 0x35233(%rip){1to8},%ymm2,%ymm2 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,5,75,3,0 // vmulps 0x34b05(%rip){1to8},%ymm2,%ymm2 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,41,82,3,0 // vmulps 0x35229(%rip){1to8},%ymm2,%ymm2 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,106,74,3,0 // vbroadcastss 0x34a6a(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,142,81,3,0 // vbroadcastss 0x3518e(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -3957,11 +4033,11 @@ _sk_store_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,50,75,3,0 // vbroadcastss 0x34b32(%rip),%ymm8 # 38b58 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,5,86,82,3,0 // vbroadcastss 0x35256(%rip),%ymm8 # 39418 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 98,113,116,56,89,21,28,75,3,0 // vmulps 0x34b1c(%rip){1to8},%ymm1,%ymm10 # 38b5c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 98,113,116,56,89,21,64,82,3,0 // vmulps 0x35240(%rip){1to8},%ymm1,%ymm10 # 3941c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
.byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
@@ -3971,7 +4047,7 @@ _sk_store_565_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4079 <_sk_store_565_skx+0x72>
+ .byte 117,10 // jne 4215 <_sk_store_565_skx+0x72>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3979,24 +4055,24 @@ _sk_store_565_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4075 <_sk_store_565_skx+0x6e>
+ .byte 119,235 // ja 4211 <_sk_store_565_skx+0x6e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 40e4 <_sk_store_565_skx+0xdd>
+ .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 4280 <_sk_store_565_skx+0xdd>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 4075 <_sk_store_565_skx+0x6e>
+ .byte 235,206 // jmp 4211 <_sk_store_565_skx+0x6e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 4075 <_sk_store_565_skx+0x6e>
+ .byte 235,184 // jmp 4211 <_sk_store_565_skx+0x6e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 4075 <_sk_store_565_skx+0x6e>
+ .byte 235,146 // jmp 4211 <_sk_store_565_skx+0x6e>
.byte 144 // nop
.byte 186,255,255,255,203 // mov $0xcbffffff,%edx
.byte 255 // (bad)
@@ -4008,7 +4084,7 @@ _sk_store_565_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe20040f8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fcb940>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2004294 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fcb21c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -4028,21 +4104,21 @@ _sk_load_4444_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 418a <_sk_load_4444_skx+0x8a>
+ .byte 117,111 // jne 4326 <_sk_load_4444_skx+0x8a>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,48,74,3,0 // vpandd 0x34a30(%rip){1to8},%ymm3,%ymm0 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,84,81,3,0 // vpandd 0x35154(%rip){1to8},%ymm3,%ymm0 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,38,74,3,0 // vmulps 0x34a26(%rip){1to8},%ymm0,%ymm0 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,32,74,3,0 // vpandd 0x34a20(%rip){1to8},%ymm3,%ymm1 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,74,81,3,0 // vmulps 0x3514a(%rip){1to8},%ymm0,%ymm0 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,68,81,3,0 // vpandd 0x35144(%rip){1to8},%ymm3,%ymm1 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,22,74,3,0 // vmulps 0x34a16(%rip){1to8},%ymm1,%ymm1 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,16,74,3,0 // vpandd 0x34a10(%rip){1to8},%ymm3,%ymm2 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,58,81,3,0 // vmulps 0x3513a(%rip){1to8},%ymm1,%ymm1 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,52,81,3,0 // vpandd 0x35134(%rip){1to8},%ymm3,%ymm2 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,6,74,3,0 // vmulps 0x34a06(%rip){1to8},%ymm2,%ymm2 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,0,74,3,0 // vpandd 0x34a00(%rip){1to8},%ymm3,%ymm3 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,42,81,3,0 // vmulps 0x3512a(%rip){1to8},%ymm2,%ymm2 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,36,81,3,0 // vpandd 0x35124(%rip){1to8},%ymm3,%ymm3 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,246,73,3,0 // vmulps 0x349f6(%rip){1to8},%ymm3,%ymm3 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,26,81,3,0 // vmulps 0x3511a(%rip){1to8},%ymm3,%ymm3 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4050,22 +4126,22 @@ _sk_load_4444_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 4121 <_sk_load_4444_skx+0x21>
+ .byte 119,130 // ja 42bd <_sk_load_4444_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4224 <_sk_load_4444_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 43c0 <_sk_load_4444_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,96,255,255,255 // jmpq 4121 <_sk_load_4444_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 42bd <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,57,255,255,255 // jmpq 4121 <_sk_load_4444_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 42bd <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -4075,7 +4151,7 @@ _sk_load_4444_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,255,254,255,255 // jmpq 4121 <_sk_load_4444_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 42bd <_sk_load_4444_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -4109,21 +4185,21 @@ _sk_load_4444_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 42ca <_sk_load_4444_dst_skx+0x8a>
+ .byte 117,111 // jne 4466 <_sk_load_4444_dst_skx+0x8a>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,240,72,3,0 // vpandd 0x348f0(%rip){1to8},%ymm7,%ymm4 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,69,56,219,37,20,80,3,0 // vpandd 0x35014(%rip){1to8},%ymm7,%ymm4 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,230,72,3,0 // vmulps 0x348e6(%rip){1to8},%ymm4,%ymm4 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,69,56,219,45,224,72,3,0 // vpandd 0x348e0(%rip){1to8},%ymm7,%ymm5 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,92,56,89,37,10,80,3,0 // vmulps 0x3500a(%rip){1to8},%ymm4,%ymm4 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,69,56,219,45,4,80,3,0 // vpandd 0x35004(%rip){1to8},%ymm7,%ymm5 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,214,72,3,0 // vmulps 0x348d6(%rip){1to8},%ymm5,%ymm5 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,69,56,219,53,208,72,3,0 // vpandd 0x348d0(%rip){1to8},%ymm7,%ymm6 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,84,56,89,45,250,79,3,0 // vmulps 0x34ffa(%rip){1to8},%ymm5,%ymm5 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,69,56,219,53,244,79,3,0 // vpandd 0x34ff4(%rip){1to8},%ymm7,%ymm6 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,198,72,3,0 // vmulps 0x348c6(%rip){1to8},%ymm6,%ymm6 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,69,56,219,61,192,72,3,0 // vpandd 0x348c0(%rip){1to8},%ymm7,%ymm7 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,76,56,89,53,234,79,3,0 // vmulps 0x34fea(%rip){1to8},%ymm6,%ymm6 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,69,56,219,61,228,79,3,0 // vpandd 0x34fe4(%rip){1to8},%ymm7,%ymm7 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,182,72,3,0 // vmulps 0x348b6(%rip){1to8},%ymm7,%ymm7 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,68,56,89,61,218,79,3,0 // vmulps 0x34fda(%rip){1to8},%ymm7,%ymm7 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4131,22 +4207,22 @@ _sk_load_4444_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 4261 <_sk_load_4444_dst_skx+0x21>
+ .byte 119,130 // ja 43fd <_sk_load_4444_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4364 <_sk_load_4444_dst_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4500 <_sk_load_4444_dst_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,96,255,255,255 // jmpq 4261 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 43fd <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,57,255,255,255 // jmpq 4261 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 43fd <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -4156,7 +4232,7 @@ _sk_load_4444_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,255,254,255,255 // jmpq 4261 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 43fd <_sk_load_4444_dst_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -4232,18 +4308,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,251,70,3,0 // vpandd 0x346fb(%rip){1to8},%ymm3,%ymm0 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,31,78,3,0 // vpandd 0x34e1f(%rip){1to8},%ymm3,%ymm0 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,241,70,3,0 // vmulps 0x346f1(%rip){1to8},%ymm0,%ymm0 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,235,70,3,0 // vpandd 0x346eb(%rip){1to8},%ymm3,%ymm1 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,21,78,3,0 // vmulps 0x34e15(%rip){1to8},%ymm0,%ymm0 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,15,78,3,0 // vpandd 0x34e0f(%rip){1to8},%ymm3,%ymm1 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,225,70,3,0 // vmulps 0x346e1(%rip){1to8},%ymm1,%ymm1 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,219,70,3,0 // vpandd 0x346db(%rip){1to8},%ymm3,%ymm2 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,5,78,3,0 // vmulps 0x34e05(%rip){1to8},%ymm1,%ymm1 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,255,77,3,0 // vpandd 0x34dff(%rip){1to8},%ymm3,%ymm2 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,209,70,3,0 // vmulps 0x346d1(%rip){1to8},%ymm2,%ymm2 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,203,70,3,0 // vpandd 0x346cb(%rip){1to8},%ymm3,%ymm3 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,245,77,3,0 // vmulps 0x34df5(%rip){1to8},%ymm2,%ymm2 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,239,77,3,0 // vpandd 0x34def(%rip){1to8},%ymm3,%ymm3 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,193,70,3,0 // vmulps 0x346c1(%rip){1to8},%ymm3,%ymm3 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,229,77,3,0 // vmulps 0x34de5(%rip){1to8},%ymm3,%ymm3 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -4262,7 +4338,7 @@ _sk_store_4444_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,155,70,3,0 // vbroadcastss 0x3469b(%rip),%ymm8 # 38b80 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,5,191,77,3,0 // vbroadcastss 0x34dbf(%rip),%ymm8 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -4280,7 +4356,7 @@ _sk_store_4444_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4548 <_sk_store_4444_skx+0x82>
+ .byte 117,10 // jne 46e4 <_sk_store_4444_skx+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4288,24 +4364,24 @@ _sk_store_4444_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4544 <_sk_store_4444_skx+0x7e>
+ .byte 119,235 // ja 46e0 <_sk_store_4444_skx+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 45b4 <_sk_store_4444_skx+0xee>
+ .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4750 <_sk_store_4444_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 4544 <_sk_store_4444_skx+0x7e>
+ .byte 235,206 // jmp 46e0 <_sk_store_4444_skx+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 4544 <_sk_store_4444_skx+0x7e>
+ .byte 235,184 // jmp 46e0 <_sk_store_4444_skx+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 4544 <_sk_store_4444_skx+0x7e>
+ .byte 235,146 // jmp 46e0 <_sk_store_4444_skx+0x7e>
.byte 102,144 // xchg %ax,%ax
.byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
.byte 255 // (bad)
@@ -4317,7 +4393,7 @@ _sk_store_4444_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe10045c8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fcbe10>
+ .byte 232,255,255,255,224 // callq ffffffffe1004764 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fcb6ec>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -4337,13 +4413,13 @@ _sk_load_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 464d <_sk_load_8888_skx+0x7d>
+ .byte 117,97 // jne 47e9 <_sk_load_8888_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,210,68,3,0 // vbroadcastss 0x344d2(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,246,75,3,0 // vbroadcastss 0x34bf6(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4363,14 +4439,14 @@ _sk_load_8888_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 45f2 <_sk_load_8888_skx+0x22>
+ .byte 119,144 // ja 478e <_sk_load_8888_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 46f8 <_sk_load_8888_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4894 <_sk_load_8888_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 45f2 <_sk_load_8888_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 478e <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4378,7 +4454,7 @@ _sk_load_8888_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 45f2 <_sk_load_8888_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 478e <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4391,9 +4467,9 @@ _sk_load_8888_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 45f2 <_sk_load_8888_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 478e <_sk_load_8888_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 46f9 <_sk_load_8888_skx+0x129>
+ .byte 126,255 // jle 4895 <_sk_load_8888_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4424,13 +4500,13 @@ _sk_load_8888_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4791 <_sk_load_8888_dst_skx+0x7d>
+ .byte 117,97 // jne 492d <_sk_load_8888_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,142,67,3,0 // vbroadcastss 0x3438e(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,178,74,3,0 // vbroadcastss 0x34ab2(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -4450,14 +4526,14 @@ _sk_load_8888_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 4736 <_sk_load_8888_dst_skx+0x22>
+ .byte 119,144 // ja 48d2 <_sk_load_8888_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 483c <_sk_load_8888_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 49d8 <_sk_load_8888_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 4736 <_sk_load_8888_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 48d2 <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4465,7 +4541,7 @@ _sk_load_8888_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 4736 <_sk_load_8888_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 48d2 <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4478,9 +4554,9 @@ _sk_load_8888_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 4736 <_sk_load_8888_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 48d2 <_sk_load_8888_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 483d <_sk_load_8888_dst_skx+0x129>
+ .byte 126,255 // jle 49d9 <_sk_load_8888_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4524,7 +4600,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,33,66,3,0 // vbroadcastss 0x34221(%rip),%ymm3 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,69,73,3,0 // vbroadcastss 0x34945(%rip),%ymm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4551,7 +4627,7 @@ _sk_store_8888_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,118,65,3,0 // vbroadcastss 0x34176(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,154,72,3,0 // vbroadcastss 0x3489a(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -4567,7 +4643,7 @@ _sk_store_8888_skx:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4976 <_sk_store_8888_skx+0x78>
+ .byte 117,10 // jne 4b12 <_sk_store_8888_skx+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4575,18 +4651,18 @@ _sk_store_8888_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4972 <_sk_store_8888_skx+0x74>
+ .byte 119,235 // ja 4b0e <_sk_store_8888_skx+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 49ec <_sk_store_8888_skx+0xee>
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4b88 <_sk_store_8888_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 4972 <_sk_store_8888_skx+0x74>
+ .byte 235,207 // jmp 4b0e <_sk_store_8888_skx+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 4972 <_sk_store_8888_skx+0x74>
+ .byte 235,185 // jmp 4b0e <_sk_store_8888_skx+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -4594,7 +4670,7 @@ _sk_store_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 4972 <_sk_store_8888_skx+0x74>
+ .byte 235,136 // jmp 4b0e <_sk_store_8888_skx+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -4607,7 +4683,7 @@ _sk_store_8888_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004a00 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcc248>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc004b9c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcbb24>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -4627,13 +4703,13 @@ _sk_load_bgra_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4a85 <_sk_load_bgra_skx+0x7d>
+ .byte 117,97 // jne 4c21 <_sk_load_bgra_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,154,64,3,0 // vbroadcastss 0x3409a(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,190,71,3,0 // vbroadcastss 0x347be(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4653,14 +4729,14 @@ _sk_load_bgra_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 4a2a <_sk_load_bgra_skx+0x22>
+ .byte 119,144 // ja 4bc6 <_sk_load_bgra_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4b30 <_sk_load_bgra_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4ccc <_sk_load_bgra_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 4a2a <_sk_load_bgra_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 4bc6 <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4668,7 +4744,7 @@ _sk_load_bgra_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 4a2a <_sk_load_bgra_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 4bc6 <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4681,9 +4757,9 @@ _sk_load_bgra_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 4a2a <_sk_load_bgra_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 4bc6 <_sk_load_bgra_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4b31 <_sk_load_bgra_skx+0x129>
+ .byte 126,255 // jle 4ccd <_sk_load_bgra_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4714,13 +4790,13 @@ _sk_load_bgra_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4bc9 <_sk_load_bgra_dst_skx+0x7d>
+ .byte 117,97 // jne 4d65 <_sk_load_bgra_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,86,63,3,0 // vbroadcastss 0x33f56(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,122,70,3,0 // vbroadcastss 0x3467a(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -4740,14 +4816,14 @@ _sk_load_bgra_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 4b6e <_sk_load_bgra_dst_skx+0x22>
+ .byte 119,144 // ja 4d0a <_sk_load_bgra_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4c74 <_sk_load_bgra_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4e10 <_sk_load_bgra_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 4b6e <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 4d0a <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4755,7 +4831,7 @@ _sk_load_bgra_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 4b6e <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 4d0a <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4768,9 +4844,9 @@ _sk_load_bgra_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 4b6e <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 4d0a <_sk_load_bgra_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4c75 <_sk_load_bgra_dst_skx+0x129>
+ .byte 126,255 // jle 4e11 <_sk_load_bgra_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4814,7 +4890,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,233,61,3,0 // vbroadcastss 0x33de9(%rip),%ymm3 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,13,69,3,0 // vbroadcastss 0x3450d(%rip),%ymm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4841,7 +4917,7 @@ _sk_store_bgra_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,62,61,3,0 // vbroadcastss 0x33d3e(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,98,68,3,0 // vbroadcastss 0x34462(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -4857,7 +4933,7 @@ _sk_store_bgra_skx:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4dae <_sk_store_bgra_skx+0x78>
+ .byte 117,10 // jne 4f4a <_sk_store_bgra_skx+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4865,18 +4941,18 @@ _sk_store_bgra_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4daa <_sk_store_bgra_skx+0x74>
+ .byte 119,235 // ja 4f46 <_sk_store_bgra_skx+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4e24 <_sk_store_bgra_skx+0xee>
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4fc0 <_sk_store_bgra_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 4daa <_sk_store_bgra_skx+0x74>
+ .byte 235,207 // jmp 4f46 <_sk_store_bgra_skx+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 4daa <_sk_store_bgra_skx+0x74>
+ .byte 235,185 // jmp 4f46 <_sk_store_bgra_skx+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -4884,7 +4960,7 @@ _sk_store_bgra_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 4daa <_sk_store_bgra_skx+0x74>
+ .byte 235,136 // jmp 4f46 <_sk_store_bgra_skx+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -4897,7 +4973,7 @@ _sk_store_bgra_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004e38 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcc680>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc004fd4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcbf5c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -4917,7 +4993,7 @@ _sk_load_f16_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4ec1 <_sk_load_f16_skx+0x81>
+ .byte 117,101 // jne 505d <_sk_load_f16_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,76,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm1
@@ -4943,29 +5019,29 @@ _sk_load_f16_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4f27 <_sk_load_f16_skx+0xe7>
+ .byte 116,85 // je 50c3 <_sk_load_f16_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4f27 <_sk_load_f16_skx+0xe7>
+ .byte 114,72 // jb 50c3 <_sk_load_f16_skx+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4f34 <_sk_load_f16_skx+0xf4>
+ .byte 116,72 // je 50d0 <_sk_load_f16_skx+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4f34 <_sk_load_f16_skx+0xf4>
+ .byte 114,59 // jb 50d0 <_sk_load_f16_skx+0xf4>
.byte 196,193,123,16,76,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm1
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4e77 <_sk_load_f16_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 5013 <_sk_load_f16_skx+0x37>
.byte 196,193,113,22,76,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm1,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4e77 <_sk_load_f16_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 5013 <_sk_load_f16_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4e77 <_sk_load_f16_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 5013 <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 4e77 <_sk_load_f16_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 5013 <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,58,255,255,255 // jmpq 4e77 <_sk_load_f16_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 5013 <_sk_load_f16_skx+0x37>
HIDDEN _sk_load_f16_dst_skx
.globl _sk_load_f16_dst_skx
@@ -4979,7 +5055,7 @@ _sk_load_f16_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4fbe <_sk_load_f16_dst_skx+0x81>
+ .byte 117,101 // jne 515a <_sk_load_f16_dst_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,108,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm5
@@ -5005,29 +5081,29 @@ _sk_load_f16_dst_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 5024 <_sk_load_f16_dst_skx+0xe7>
+ .byte 116,85 // je 51c0 <_sk_load_f16_dst_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 5024 <_sk_load_f16_dst_skx+0xe7>
+ .byte 114,72 // jb 51c0 <_sk_load_f16_dst_skx+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 5031 <_sk_load_f16_dst_skx+0xf4>
+ .byte 116,72 // je 51cd <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 5031 <_sk_load_f16_dst_skx+0xf4>
+ .byte 114,59 // jb 51cd <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,123,16,108,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm5
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4f74 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 5110 <_sk_load_f16_dst_skx+0x37>
.byte 196,193,81,22,108,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm5,%xmm5
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4f74 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 5110 <_sk_load_f16_dst_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4f74 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 5110 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 4f74 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 5110 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 233,58,255,255,255 // jmpq 4f74 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 5110 <_sk_load_f16_dst_skx+0x37>
HIDDEN _sk_gather_f16_skx
.globl _sk_gather_f16_skx
@@ -5102,7 +5178,7 @@ _sk_store_f16_skx:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 517f <_sk_store_f16_skx+0x7b>
+ .byte 117,31 // jne 531b <_sk_store_f16_skx+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -5111,22 +5187,22 @@ _sk_store_f16_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 517b <_sk_store_f16_skx+0x77>
+ .byte 116,240 // je 5317 <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 517b <_sk_store_f16_skx+0x77>
+ .byte 114,227 // jb 5317 <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je 517b <_sk_store_f16_skx+0x77>
+ .byte 116,218 // je 5317 <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 517b <_sk_store_f16_skx+0x77>
+ .byte 114,205 // jb 5317 <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je 517b <_sk_store_f16_skx+0x77>
+ .byte 116,196 // je 5317 <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 517b <_sk_store_f16_skx+0x77>
+ .byte 114,183 // jb 5317 <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp 517b <_sk_store_f16_skx+0x77>
+ .byte 235,174 // jmp 5317 <_sk_store_f16_skx+0x77>
HIDDEN _sk_load_u16_be_skx
.globl _sk_load_u16_be_skx
@@ -5141,7 +5217,7 @@ _sk_load_u16_be_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne 52c0 <_sk_load_u16_be_skx+0xf3>
+ .byte 15,133,204,0,0,0 // jne 545c <_sk_load_u16_be_skx+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -5160,7 +5236,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,167,56,3,0 // vbroadcastss 0x338a7(%rip),%ymm10 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,203,63,3,0 // vbroadcastss 0x33fcb(%rip),%ymm10 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -5188,29 +5264,29 @@ _sk_load_u16_be_skx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 5326 <_sk_load_u16_be_skx+0x159>
+ .byte 116,85 // je 54c2 <_sk_load_u16_be_skx+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 5326 <_sk_load_u16_be_skx+0x159>
+ .byte 114,72 // jb 54c2 <_sk_load_u16_be_skx+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 5333 <_sk_load_u16_be_skx+0x166>
+ .byte 116,72 // je 54cf <_sk_load_u16_be_skx+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 5333 <_sk_load_u16_be_skx+0x166>
+ .byte 114,59 // jb 54cf <_sk_load_u16_be_skx+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je 520f <_sk_load_u16_be_skx+0x42>
+ .byte 15,132,6,255,255,255 // je 53ab <_sk_load_u16_be_skx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb 520f <_sk_load_u16_be_skx+0x42>
+ .byte 15,130,245,254,255,255 // jb 53ab <_sk_load_u16_be_skx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 520f <_sk_load_u16_be_skx+0x42>
+ .byte 233,233,254,255,255 // jmpq 53ab <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 520f <_sk_load_u16_be_skx+0x42>
+ .byte 233,220,254,255,255 // jmpq 53ab <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 520f <_sk_load_u16_be_skx+0x42>
+ .byte 233,211,254,255,255 // jmpq 53ab <_sk_load_u16_be_skx+0x42>
HIDDEN _sk_load_rgb_u16_be_skx
.globl _sk_load_rgb_u16_be_skx
@@ -5227,7 +5303,7 @@ _sk_load_rgb_u16_be_skx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,202,0,0,0 // jne 5431 <_sk_load_rgb_u16_be_skx+0xf5>
+ .byte 15,133,202,0,0,0 // jne 55cd <_sk_load_rgb_u16_be_skx+0xf5>
.byte 196,65,121,16,28,64 // vmovupd (%r8,%rax,2),%xmm11
.byte 196,193,121,16,92,64,12 // vmovupd 0xc(%r8,%rax,2),%xmm3
.byte 196,193,121,16,84,64,24 // vmovupd 0x18(%r8,%rax,2),%xmm2
@@ -5251,7 +5327,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,25,55,3,0 // vbroadcastss 0x33719(%rip),%ymm9 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,61,62,3,0 // vbroadcastss 0x33e3d(%rip),%ymm9 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -5267,69 +5343,69 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,57,54,3,0 // vbroadcastss 0x33639(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,93,61,3,0 // vbroadcastss 0x33d5d(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 5469 <_sk_load_rgb_u16_be_skx+0x12d>
+ .byte 117,31 // jne 5605 <_sk_load_rgb_u16_be_skx+0x12d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq 5399 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,48,255,255,255 // jmpq 5535 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 54b3 <_sk_load_rgb_u16_be_skx+0x177>
+ .byte 114,48 // jb 564f <_sk_load_rgb_u16_be_skx+0x177>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 54cd <_sk_load_rgb_u16_be_skx+0x191>
+ .byte 117,48 // jne 5669 <_sk_load_rgb_u16_be_skx+0x191>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq 5399 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,230,254,255,255 // jmpq 5535 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq 5399 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,204,254,255,255 // jmpq 5535 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 550e <_sk_load_rgb_u16_be_skx+0x1d2>
+ .byte 114,39 // jb 56aa <_sk_load_rgb_u16_be_skx+0x1d2>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 551f <_sk_load_rgb_u16_be_skx+0x1e3>
+ .byte 117,30 // jne 56bb <_sk_load_rgb_u16_be_skx+0x1e3>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 5399 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,139,254,255,255 // jmpq 5535 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq 5399 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,122,254,255,255 // jmpq 5535 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 5552 <_sk_load_rgb_u16_be_skx+0x216>
+ .byte 114,25 // jb 56ee <_sk_load_rgb_u16_be_skx+0x216>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq 5399 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,71,254,255,255 // jmpq 5535 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq 5399 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,62,254,255,255 // jmpq 5535 <_sk_load_rgb_u16_be_skx+0x5d>
HIDDEN _sk_store_u16_be_skx
.globl _sk_store_u16_be_skx
@@ -5343,7 +5419,7 @@ _sk_store_u16_be_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,2,54,3,0 // vbroadcastss 0x33602(%rip),%ymm8 # 38b84 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,5,38,61,3,0 // vbroadcastss 0x33d26(%rip),%ymm8 # 39444 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -5381,7 +5457,7 @@ _sk_store_u16_be_skx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 5666 <_sk_store_u16_be_skx+0x10b>
+ .byte 117,31 // jne 5802 <_sk_store_u16_be_skx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -5390,22 +5466,22 @@ _sk_store_u16_be_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5662 <_sk_store_u16_be_skx+0x107>
+ .byte 116,240 // je 57fe <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5662 <_sk_store_u16_be_skx+0x107>
+ .byte 114,227 // jb 57fe <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 5662 <_sk_store_u16_be_skx+0x107>
+ .byte 116,218 // je 57fe <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5662 <_sk_store_u16_be_skx+0x107>
+ .byte 114,205 // jb 57fe <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 5662 <_sk_store_u16_be_skx+0x107>
+ .byte 116,196 // je 57fe <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 5662 <_sk_store_u16_be_skx+0x107>
+ .byte 114,183 // jb 57fe <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 5662 <_sk_store_u16_be_skx+0x107>
+ .byte 235,174 // jmp 57fe <_sk_store_u16_be_skx+0x107>
HIDDEN _sk_load_f32_skx
.globl _sk_load_f32_skx
@@ -5415,7 +5491,7 @@ _sk_load_f32_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 5809 <_sk_load_f32_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 59a5 <_sk_load_f32_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -5423,7 +5499,7 @@ _sk_load_f32_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 581c <_sk_load_f32_skx+0x168>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 59b8 <_sk_load_f32_skx+0x168>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
@@ -5482,7 +5558,7 @@ _sk_load_f32_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,196 // jmp 57dd <_sk_load_f32_skx+0x129>
+ .byte 235,196 // jmp 5979 <_sk_load_f32_skx+0x129>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -5511,7 +5587,7 @@ _sk_load_f32_dst_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 5991 <_sk_load_f32_dst_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 5b2d <_sk_load_f32_dst_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -5519,7 +5595,7 @@ _sk_load_f32_dst_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 59a4 <_sk_load_f32_dst_skx+0x168>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5b40 <_sk_load_f32_dst_skx+0x168>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
@@ -5578,7 +5654,7 @@ _sk_load_f32_dst_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,196 // jmp 5965 <_sk_load_f32_dst_skx+0x129>
+ .byte 235,196 // jmp 5b01 <_sk_load_f32_dst_skx+0x129>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -5620,7 +5696,7 @@ _sk_store_f32_skx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 5a43 <_sk_store_f32_skx+0x7f>
+ .byte 117,55 // jne 5bdf <_sk_store_f32_skx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -5633,22 +5709,22 @@ _sk_store_f32_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5a3f <_sk_store_f32_skx+0x7b>
+ .byte 116,240 // je 5bdb <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5a3f <_sk_store_f32_skx+0x7b>
+ .byte 114,227 // jb 5bdb <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 5a3f <_sk_store_f32_skx+0x7b>
+ .byte 116,218 // je 5bdb <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5a3f <_sk_store_f32_skx+0x7b>
+ .byte 114,205 // jb 5bdb <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 5a3f <_sk_store_f32_skx+0x7b>
+ .byte 116,195 // je 5bdb <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 5a3f <_sk_store_f32_skx+0x7b>
+ .byte 114,181 // jb 5bdb <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 5a3f <_sk_store_f32_skx+0x7b>
+ .byte 235,171 // jmp 5bdb <_sk_store_f32_skx+0x7b>
HIDDEN _sk_repeat_x_skx
.globl _sk_repeat_x_skx
@@ -5685,7 +5761,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,111,47,3,0 // vmulss 0x32f6f(%rip),%xmm9,%xmm0 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,147,54,3,0 // vmulss 0x33693(%rip),%xmm9,%xmm0 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -5708,7 +5784,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,30,47,3,0 // vmulss 0x32f1e(%rip),%xmm9,%xmm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,66,54,3,0 // vmulss 0x33642(%rip),%xmm9,%xmm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -5726,7 +5802,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,229,46,3,0 // vminps 0x32ee5(%rip){1to8},%ymm0,%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,9,54,3,0 // vminps 0x33609(%rip){1to8},%ymm0,%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5738,7 +5814,7 @@ _sk_repeat_x_1_skx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,195,46,3,0 // vminps 0x32ec3(%rip){1to8},%ymm0,%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,231,53,3,0 // vminps 0x335e7(%rip){1to8},%ymm0,%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5746,9 +5822,9 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,206,46,3,0 // vbroadcastss 0x32ece(%rip),%ymm8 # 38a80 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,242,53,3,0 // vbroadcastss 0x335f2(%rip),%ymm8 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,163,46,3,0 // vmulps 0x32ea3(%rip){1to8},%ymm0,%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,124,56,89,13,199,53,3,0 // vmulps 0x335c7(%rip){1to8},%ymm0,%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
@@ -5757,7 +5833,7 @@ _sk_mirror_x_1_skx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,119,46,3,0 // vminps 0x32e77(%rip){1to8},%ymm0,%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,155,53,3,0 // vminps 0x3359b(%rip){1to8},%ymm0,%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5765,9 +5841,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,137,47,3,0 // vmulps 0x32f89(%rip){1to8},%ymm1,%ymm3 # 38b88 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 98,242,125,56,184,29,131,47,3,0 // vfmadd231ps 0x32f83(%rip){1to8},%ymm0,%ymm3 # 38b8c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 98,242,109,56,184,29,125,47,3,0 // vfmadd231ps 0x32f7d(%rip){1to8},%ymm2,%ymm3 # 38b90 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 98,241,116,56,89,29,173,54,3,0 // vmulps 0x336ad(%rip){1to8},%ymm1,%ymm3 # 39448 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 98,242,125,56,184,29,167,54,3,0 // vfmadd231ps 0x336a7(%rip){1to8},%ymm0,%ymm3 # 3944c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 98,242,109,56,184,29,161,54,3,0 // vfmadd231ps 0x336a1(%rip){1to8},%ymm2,%ymm3 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -5949,7 +6025,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 5f11 <_sk_evenly_spaced_gradient_skx+0x70>
+ .byte 119,73 // ja 60ad <_sk_evenly_spaced_gradient_skx+0x70>
.byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
@@ -5965,7 +6041,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
- .byte 233,147,0,0,0 // jmpq 5fa4 <_sk_evenly_spaced_gradient_skx+0x103>
+ .byte 233,147,0,0,0 // jmpq 6140 <_sk_evenly_spaced_gradient_skx+0x103>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
@@ -6012,11 +6088,11 @@ _sk_gradient_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,229,0,0,0 // jbe 60b4 <_sk_gradient_skx+0xf4>
+ .byte 15,134,229,0,0,0 // jbe 6250 <_sk_gradient_skx+0xf4>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,134,42,3,0 // vbroadcastss 0x32a86(%rip),%ymm2 # 38a6c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,170,49,3,0 // vbroadcastss 0x331aa(%rip),%ymm2 # 3932c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -6025,10 +6101,10 @@ _sk_gradient_skx:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,131,194,1 // add $0x1,%r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,218 // jne 5feb <_sk_gradient_skx+0x2b>
+ .byte 117,218 // jne 6187 <_sk_gradient_skx+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 60bd <_sk_gradient_skx+0xfd>
+ .byte 15,134,158,0,0,0 // jbe 6259 <_sk_gradient_skx+0xfd>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
@@ -6060,7 +6136,7 @@ _sk_gradient_skx:
.byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 6101 <_sk_gradient_skx+0x141>
+ .byte 235,77 // jmp 629d <_sk_gradient_skx+0x141>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -6116,24 +6192,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,8,42,3,0 // vbroadcastss 0x32a08(%rip),%ymm13 # 38b94 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 98,114,29,56,168,45,2,42,3,0 // vfmadd213ps 0x32a02(%rip){1to8},%ymm12,%ymm13 # 38b98 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 98,114,29,56,168,45,252,41,3,0 // vfmadd213ps 0x329fc(%rip){1to8},%ymm12,%ymm13 # 38b9c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 98,114,29,56,168,45,246,41,3,0 // vfmadd213ps 0x329f6(%rip){1to8},%ymm12,%ymm13 # 38ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,44,49,3,0 // vbroadcastss 0x3312c(%rip),%ymm13 # 39454 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 98,114,29,56,168,45,38,49,3,0 // vfmadd213ps 0x33126(%rip){1to8},%ymm12,%ymm13 # 39458 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 98,114,29,56,168,45,32,49,3,0 // vfmadd213ps 0x33120(%rip){1to8},%ymm12,%ymm13 # 3945c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 98,114,29,56,168,45,26,49,3,0 // vfmadd213ps 0x3311a(%rip){1to8},%ymm12,%ymm13 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,223,41,3,0 // vbroadcastss 0x329df(%rip),%ymm10 # 38ba4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,3,49,3,0 // vbroadcastss 0x33103(%rip),%ymm10 # 39464 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,126,40,3,0 // vbroadcastss 0x3287e(%rip),%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,162,47,3,0 // vbroadcastss 0x32fa2(%rip),%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,97,40,3,0 // vbroadcastss 0x32861(%rip),%ymm10 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,133,47,3,0 // vbroadcastss 0x32f85(%rip),%ymm10 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -6162,19 +6238,19 @@ _sk_xy_to_2pt_conical_quadratic_first_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,73,41,3,0 // vmulps 0x32949(%rip){1to8},%ymm10,%ymm10 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,109,48,3,0 // vmulps 0x3306d(%rip){1to8},%ymm10,%ymm10 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,44,41,3,0 // vmulps 0x3292c(%rip){1to8},%ymm8,%ymm8 # 38bac <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,80,48,3,0 // vmulps 0x33050(%rip){1to8},%ymm8,%ymm8 # 3946c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 98,113,60,56,89,5,194,39,3,0 // vmulps 0x327c2(%rip){1to8},%ymm8,%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,60,56,89,5,230,46,3,0 // vmulps 0x32ee6(%rip){1to8},%ymm8,%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6189,19 +6265,19 @@ _sk_xy_to_2pt_conical_quadratic_second_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,216,40,3,0 // vmulps 0x328d8(%rip){1to8},%ymm10,%ymm10 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,252,47,3,0 // vmulps 0x32ffc(%rip){1to8},%ymm10,%ymm10 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,187,40,3,0 // vmulps 0x328bb(%rip){1to8},%ymm8,%ymm8 # 38bac <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,223,47,3,0 // vmulps 0x32fdf(%rip){1to8},%ymm8,%ymm8 # 3946c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 98,113,44,56,87,13,162,40,3,0 // vxorps 0x328a2(%rip){1to8},%ymm10,%ymm9 # 38bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 98,113,60,56,89,5,76,39,3,0 // vmulps 0x3274c(%rip){1to8},%ymm8,%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,44,56,87,13,198,47,3,0 // vxorps 0x32fc6(%rip){1to8},%ymm10,%ymm9 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,113,60,56,89,5,112,46,3,0 // vmulps 0x32e70(%rip){1to8},%ymm8,%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6216,13 +6292,13 @@ _sk_xy_to_2pt_conical_linear_skx:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 98,113,52,56,89,13,100,40,3,0 // vmulps 0x32864(%rip){1to8},%ymm9,%ymm9 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,52,56,89,13,136,47,3,0 // vmulps 0x32f88(%rip){1to8},%ymm9,%ymm9 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,241,124,56,87,5,75,40,3,0 // vxorps 0x3284b(%rip){1to8},%ymm0,%ymm0 # 38bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,241,124,56,87,5,111,47,3,0 // vxorps 0x32f6f(%rip){1to8},%ymm0,%ymm0 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6264,7 +6340,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,140,38,3,0 // vbroadcastss 0x3268c(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,176,45,3,0 // vbroadcastss 0x32db0(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -6299,8 +6375,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,97,39,3,0 // vaddps 0x32761(%rip){1to8},%ymm0,%ymm0 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,12,38,3,0 // vbroadcastss 0x3260c(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,133,46,3,0 // vaddps 0x32e85(%rip){1to8},%ymm0,%ymm0 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,48,45,3,0 // vbroadcastss 0x32d30(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6313,7 +6389,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,220,37,3,0 // vaddps 0x325dc(%rip){1to8},%ymm0,%ymm0 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,124,56,88,5,0,45,3,0 // vaddps 0x32d00(%rip){1to8},%ymm0,%ymm0 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6324,8 +6400,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,15,39,3,0 // vaddps 0x3270f(%rip){1to8},%ymm1,%ymm1 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,186,37,3,0 // vbroadcastss 0x325ba(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,51,46,3,0 // vaddps 0x32e33(%rip){1to8},%ymm1,%ymm1 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,222,44,3,0 // vbroadcastss 0x32cde(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6338,7 +6414,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,137,37,3,0 // vaddps 0x32589(%rip){1to8},%ymm1,%ymm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,173,44,3,0 // vaddps 0x32cad(%rip){1to8},%ymm1,%ymm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6349,12 +6425,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,193,38,3,0 // vaddps 0x326c1(%rip){1to8},%ymm0,%ymm0 # 38bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,104,37,3,0 // vbroadcastss 0x32568(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,229,45,3,0 // vaddps 0x32de5(%rip){1to8},%ymm0,%ymm0 # 39478 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,140,44,3,0 // vbroadcastss 0x32c8c(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,166,38,3,0 // vbroadcastss 0x326a6(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,188,37,3,0 // vfmadd213ps 0x325bc(%rip){1to8},%ymm8,%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,202,45,3,0 // vbroadcastss 0x32dca(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,224,44,3,0 // vfmadd213ps 0x32ce0(%rip){1to8},%ymm8,%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6366,13 +6442,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,115,38,3,0 // vaddps 0x32673(%rip){1to8},%ymm0,%ymm0 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,30,37,3,0 // vbroadcastss 0x3251e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,151,45,3,0 // vaddps 0x32d97(%rip){1to8},%ymm0,%ymm0 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,66,44,3,0 // vbroadcastss 0x32c42(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,101,38,3,0 // vbroadcastss 0x32665(%rip),%ymm9 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,95,38,3,0 // vfmadd213ps 0x3265f(%rip){1to8},%ymm8,%ymm9 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,245,36,3,0 // vfmadd213ps 0x324f5(%rip){1to8},%ymm8,%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,79,38,3,0 // vfmadd213ps 0x3264f(%rip){1to8},%ymm8,%ymm9 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,137,45,3,0 // vbroadcastss 0x32d89(%rip),%ymm9 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,131,45,3,0 // vfmadd213ps 0x32d83(%rip){1to8},%ymm8,%ymm9 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,25,44,3,0 // vfmadd213ps 0x32c19(%rip){1to8},%ymm8,%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,115,45,3,0 // vfmadd213ps 0x32d73(%rip){1to8},%ymm8,%ymm9 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6382,13 +6458,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,212,36,3,0 // vbroadcastss 0x324d4(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,248,43,3,0 // vbroadcastss 0x32bf8(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,27,38,3,0 // vbroadcastss 0x3261b(%rip),%ymm10 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,21,38,3,0 // vfmadd213ps 0x32615(%rip){1to8},%ymm9,%ymm10 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,63,45,3,0 // vbroadcastss 0x32d3f(%rip),%ymm10 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,57,45,3,0 // vfmadd213ps 0x32d39(%rip){1to8},%ymm9,%ymm10 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,10,38,3,0 // vfmadd213ps 0x3260a(%rip){1to8},%ymm9,%ymm10 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,46,45,3,0 // vfmadd213ps 0x32d2e(%rip){1to8},%ymm9,%ymm10 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6400,10 +6476,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,226,37,3,0 // vaddps 0x325e2(%rip){1to8},%ymm0,%ymm0 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,124,56,88,5,6,45,3,0 // vaddps 0x32d06(%rip){1to8},%ymm0,%ymm0 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,204,37,3,0 // vbroadcastss 0x325cc(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,226,36,3,0 // vfmadd213ps 0x324e2(%rip){1to8},%ymm8,%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,240,44,3,0 // vbroadcastss 0x32cf0(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,6,44,3,0 // vfmadd213ps 0x32c06(%rip){1to8},%ymm8,%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6415,12 +6491,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,156,37,3,0 // vaddps 0x3259c(%rip){1to8},%ymm1,%ymm1 # 38bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,67,36,3,0 // vbroadcastss 0x32443(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,192,44,3,0 // vaddps 0x32cc0(%rip){1to8},%ymm1,%ymm1 # 39478 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,103,43,3,0 // vbroadcastss 0x32b67(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,129,37,3,0 // vbroadcastss 0x32581(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,151,36,3,0 // vfmadd213ps 0x32497(%rip){1to8},%ymm8,%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,165,44,3,0 // vbroadcastss 0x32ca5(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,187,43,3,0 // vfmadd213ps 0x32bbb(%rip){1to8},%ymm8,%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6432,13 +6508,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,77,37,3,0 // vaddps 0x3254d(%rip){1to8},%ymm1,%ymm1 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,248,35,3,0 // vbroadcastss 0x323f8(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,113,44,3,0 // vaddps 0x32c71(%rip){1to8},%ymm1,%ymm1 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,28,43,3,0 // vbroadcastss 0x32b1c(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,63,37,3,0 // vbroadcastss 0x3253f(%rip),%ymm9 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,57,37,3,0 // vfmadd213ps 0x32539(%rip){1to8},%ymm8,%ymm9 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,207,35,3,0 // vfmadd213ps 0x323cf(%rip){1to8},%ymm8,%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,41,37,3,0 // vfmadd213ps 0x32529(%rip){1to8},%ymm8,%ymm9 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,99,44,3,0 // vbroadcastss 0x32c63(%rip),%ymm9 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,93,44,3,0 // vfmadd213ps 0x32c5d(%rip){1to8},%ymm8,%ymm9 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,243,42,3,0 // vfmadd213ps 0x32af3(%rip){1to8},%ymm8,%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,77,44,3,0 // vfmadd213ps 0x32c4d(%rip){1to8},%ymm8,%ymm9 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6448,13 +6524,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,174,35,3,0 // vbroadcastss 0x323ae(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,210,42,3,0 // vbroadcastss 0x32ad2(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,244,36,3,0 // vbroadcastss 0x324f4(%rip),%ymm10 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,238,36,3,0 // vfmadd213ps 0x324ee(%rip){1to8},%ymm9,%ymm10 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,24,44,3,0 // vbroadcastss 0x32c18(%rip),%ymm10 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,18,44,3,0 // vfmadd213ps 0x32c12(%rip){1to8},%ymm9,%ymm10 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,227,36,3,0 // vfmadd213ps 0x324e3(%rip){1to8},%ymm9,%ymm10 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,7,44,3,0 // vfmadd213ps 0x32c07(%rip){1to8},%ymm9,%ymm10 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6466,10 +6542,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,186,36,3,0 // vaddps 0x324ba(%rip){1to8},%ymm1,%ymm1 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,116,56,88,13,222,43,3,0 // vaddps 0x32bde(%rip){1to8},%ymm1,%ymm1 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,164,36,3,0 // vbroadcastss 0x324a4(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,186,35,3,0 // vfmadd213ps 0x323ba(%rip){1to8},%ymm8,%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,200,43,3,0 // vbroadcastss 0x32bc8(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,222,42,3,0 // vfmadd213ps 0x32ade(%rip){1to8},%ymm8,%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6595,7 +6671,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,174,34,3,0 // vpbroadcastd 0x322ae(%rip),%ymm27 # 38bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,98,125,40,88,29,210,41,3,0 // vpbroadcastd 0x329d2(%rip),%ymm27 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -6608,9 +6684,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,100,34,3,0 // vbroadcastss 0x32264(%rip),%ymm10 # 38bcc <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,21,136,41,3,0 // vbroadcastss 0x32988(%rip),%ymm10 # 3948c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,252,32,3,0 // vpbroadcastd 0x320fc(%rip),%ymm16 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,5,32,40,3,0 // vpbroadcastd 0x32820(%rip),%ymm16 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -6850,7 +6926,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,64,29,3,0 // vpbroadcastd 0x31d40(%rip),%ymm16 # 38bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,226,125,40,88,5,100,36,3,0 // vpbroadcastd 0x32464(%rip),%ymm16 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -6862,9 +6938,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,242,28,3,0 // vbroadcastss 0x31cf2(%rip),%ymm0 # 38bcc <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,22,36,3,0 // vbroadcastss 0x32416(%rip),%ymm0 # 3948c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,138,27,3,0 // vpbroadcastd 0x31b8a(%rip),%ymm17 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,13,174,34,3,0 // vpbroadcastd 0x322ae(%rip),%ymm17 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -7269,7 +7345,7 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,40,18,3,0 // vbroadcastss 0x31228(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,76,25,3,0 // vbroadcastss 0x3194c(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
@@ -7281,11 +7357,11 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,106,19,3,0 // vbroadcastss 0x3136a(%rip),%ymm0 # 38bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 98,242,101,56,168,5,100,19,3,0 // vfmadd213ps 0x31364(%rip){1to8},%ymm3,%ymm0 # 38bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 98,242,101,56,168,5,94,19,3,0 // vfmadd213ps 0x3135e(%rip){1to8},%ymm3,%ymm0 # 38bdc <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- .byte 98,242,101,56,168,5,88,19,3,0 // vfmadd213ps 0x31358(%rip){1to8},%ymm3,%ymm0 # 38be0 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- .byte 98,242,101,56,168,5,82,19,3,0 // vfmadd213ps 0x31352(%rip){1to8},%ymm3,%ymm0 # 38be4 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,142,26,3,0 // vbroadcastss 0x31a8e(%rip),%ymm0 # 39494 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 98,242,101,56,168,5,136,26,3,0 // vfmadd213ps 0x31a88(%rip){1to8},%ymm3,%ymm0 # 39498 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 98,242,101,56,168,5,130,26,3,0 // vfmadd213ps 0x31a82(%rip){1to8},%ymm3,%ymm0 # 3949c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 98,242,101,56,168,5,124,26,3,0 // vfmadd213ps 0x31a7c(%rip){1to8},%ymm3,%ymm0 # 394a0 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 98,242,101,56,168,5,118,26,3,0 // vfmadd213ps 0x31a76(%rip){1to8},%ymm3,%ymm0 # 394a4 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -7315,13 +7391,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 796e <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 7b0a <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 7930 <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 7acc <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -7340,10 +7416,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 78f1 <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 7a8d <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 7961 <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 7afd <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7357,7 +7433,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 78e3 <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 7a7f <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -7386,10 +7462,10 @@ _sk_seed_shader_hsw:
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,186,16,3,0 // vbroadcastss 0x310ba(%rip),%ymm2 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,222,23,3,0 // vbroadcastss 0x317de(%rip),%ymm2 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,175,16,3,0 // vbroadcastss 0x310af(%rip),%ymm2 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,211,23,3,0 // vbroadcastss 0x317d3(%rip),%ymm2 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -7404,17 +7480,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,94,18,3,0 // vpaddd 0x3125e(%rip),%ymm8,%ymm8 # 38c40 <_sk_srcover_bgra_8888_sse2_lowp+0x488>
+ .byte 197,61,254,5,130,25,3,0 // vpaddd 0x31982(%rip),%ymm8,%ymm8 # 39500 <_sk_srcover_bgra_8888_sse2_lowp+0x488>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,115,16,3,0 // vpbroadcastd 0x31073(%rip),%ymm10 # 38a6c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,151,23,3,0 // vpbroadcastd 0x31797(%rip),%ymm10 # 3932c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,88,16,3,0 // vpbroadcastd 0x31058(%rip),%ymm12 # 38a70 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,83,16,3,0 // vpbroadcastd 0x31053(%rip),%ymm13 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,124,23,3,0 // vpbroadcastd 0x3177c(%rip),%ymm12 # 39330 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,119,23,3,0 // vpbroadcastd 0x31777(%rip),%ymm13 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -7429,8 +7505,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,5,16,3,0 // vbroadcastss 0x31005(%rip),%ymm9 # 38a78 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 196,98,125,24,21,0,16,3,0 // vbroadcastss 0x31000(%rip),%ymm10 # 38a7c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,41,23,3,0 // vbroadcastss 0x31729(%rip),%ymm9 # 39338 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,21,36,23,3,0 // vbroadcastss 0x31724(%rip),%ymm10 # 3933c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -7464,7 +7540,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,136,15,3,0 // vbroadcastss 0x30f88(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,172,22,3,0 // vbroadcastss 0x316ac(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7475,7 +7551,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,111,15,3,0 // vbroadcastss 0x30f6f(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,147,22,3,0 // vbroadcastss 0x31693(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -7521,7 +7597,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,14,15,3,0 // vbroadcastss 0x30f0e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,50,22,3,0 // vbroadcastss 0x31632(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -7537,7 +7613,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,221,14,3,0 // vbroadcastss 0x30edd(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,1,22,3,0 // vbroadcastss 0x31601(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -7576,7 +7652,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,128,14,3,0 // vbroadcastss 0x30e80(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,21,3,0 // vbroadcastss 0x315a4(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -7589,7 +7665,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,95,14,3,0 // vbroadcastss 0x30e5f(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,131,21,3,0 // vbroadcastss 0x31583(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -7602,7 +7678,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,62,14,3,0 // vbroadcastss 0x30e3e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,98,21,3,0 // vbroadcastss 0x31562(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -7615,7 +7691,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,25,14,3,0 // vbroadcastss 0x30e19(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,61,21,3,0 // vbroadcastss 0x3153d(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -7639,7 +7715,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,224,13,3,0 // vbroadcastss 0x30de0(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,21,3,0 // vbroadcastss 0x31504(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7662,7 +7738,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,143,13,3,0 // vbroadcastss 0x30d8f(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,179,20,3,0 // vbroadcastss 0x314b3(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -7692,7 +7768,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,58,13,3,0 // vbroadcastss 0x30d3a(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,94,20,3,0 // vbroadcastss 0x3145e(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7726,7 +7802,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,190,12,3,0 // vbroadcastss 0x30cbe(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,226,19,3,0 // vbroadcastss 0x313e2(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7751,7 +7827,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,105,12,3,0 // vbroadcastss 0x30c69(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,141,19,3,0 // vbroadcastss 0x3138d(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7779,7 +7855,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,8,12,3,0 // vbroadcastss 0x30c08(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,44,19,3,0 // vbroadcastss 0x3132c(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7801,7 +7877,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,194,11,3,0 // vbroadcastss 0x30bc2(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,230,18,3,0 // vbroadcastss 0x312e6(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7811,7 +7887,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,172,11,3,0 // vbroadcastss 0x30bac(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,208,18,3,0 // vbroadcastss 0x312d0(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -7869,7 +7945,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,188,10,3,0 // vbroadcastss 0x30abc(%rip),%ymm9 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,224,17,3,0 // vbroadcastss 0x311e0(%rip),%ymm9 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -7922,7 +7998,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,214,9,3,0 // vbroadcastss 0x309d6(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,250,16,3,0 // vbroadcastss 0x310fa(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7973,7 +8049,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,10,9,3,0 // vbroadcastss 0x3090a(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,46,16,3,0 // vbroadcastss 0x3102e(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8034,10 +8110,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,37,8,3,0 // vbroadcastss 0x30825(%rip),%ymm11 # 38a80 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,73,15,3,0 // vbroadcastss 0x30f49(%rip),%ymm11 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,22,8,3,0 // vbroadcastss 0x30816(%rip),%ymm12 # 38a84 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,37,58,15,3,0 // vbroadcastss 0x30f3a(%rip),%ymm12 # 39344 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -8047,7 +8123,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,197,7,3,0 // vbroadcastss 0x307c5(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,233,14,3,0 // vbroadcastss 0x30ee9(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -8160,11 +8236,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,221,5,3,0 // vbroadcastss 0x305dd(%rip),%ymm14 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,216,5,3,0 // vbroadcastss 0x305d8(%rip),%ymm15 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,1,13,3,0 // vbroadcastss 0x30d01(%rip),%ymm14 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,252,12,3,0 // vbroadcastss 0x30cfc(%rip),%ymm15 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,201,5,3,0 // vbroadcastss 0x305c9(%rip),%ymm0 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,237,12,3,0 // vbroadcastss 0x30ced(%rip),%ymm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8219,7 +8295,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,138,4,3,0 // vbroadcastss 0x3048a(%rip),%ymm1 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,174,11,3,0 // vbroadcastss 0x30bae(%rip),%ymm1 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8273,11 +8349,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,189,3,3,0 // vbroadcastss 0x303bd(%rip),%ymm14 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,184,3,3,0 // vbroadcastss 0x303b8(%rip),%ymm15 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,225,10,3,0 // vbroadcastss 0x30ae1(%rip),%ymm14 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,220,10,3,0 // vbroadcastss 0x30adc(%rip),%ymm15 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,169,3,3,0 // vbroadcastss 0x303a9(%rip),%ymm0 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,205,10,3,0 // vbroadcastss 0x30acd(%rip),%ymm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8332,7 +8408,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,106,2,3,0 // vbroadcastss 0x3026a(%rip),%ymm1 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,142,9,3,0 // vbroadcastss 0x3098e(%rip),%ymm1 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8360,11 +8436,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,31,2,3,0 // vbroadcastss 0x3021f(%rip),%ymm13 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,26,2,3,0 // vbroadcastss 0x3021a(%rip),%ymm14 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,67,9,3,0 // vbroadcastss 0x30943(%rip),%ymm13 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,62,9,3,0 // vbroadcastss 0x3093e(%rip),%ymm14 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,11,2,3,0 // vbroadcastss 0x3020b(%rip),%ymm15 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,47,9,3,0 // vbroadcastss 0x3092f(%rip),%ymm15 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8420,7 +8496,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,193,0,3,0 // vbroadcastss 0x300c1(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,229,7,3,0 // vbroadcastss 0x307e5(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8448,11 +8524,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,118,0,3,0 // vbroadcastss 0x30076(%rip),%ymm13 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,113,0,3,0 // vbroadcastss 0x30071(%rip),%ymm14 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,154,7,3,0 // vbroadcastss 0x3079a(%rip),%ymm13 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,149,7,3,0 // vbroadcastss 0x30795(%rip),%ymm14 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,98,0,3,0 // vbroadcastss 0x30062(%rip),%ymm15 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,134,7,3,0 // vbroadcastss 0x30786(%rip),%ymm15 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8508,7 +8584,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,24,255,2,0 // vbroadcastss 0x2ff18(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,60,6,3,0 // vbroadcastss 0x3063c(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8537,19 +8613,19 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 8c65 <_sk_srcover_rgba_8888_hsw+0xd3>
+ .byte 15,133,179,0,0,0 // jne 8e01 <_sk_srcover_rgba_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,160,0,3,0 // vpand 0x300a0(%rip),%ymm7,%ymm4 # 38c60 <_sk_srcover_bgra_8888_sse2_lowp+0x4a8>
+ .byte 197,197,219,37,196,7,3,0 // vpand 0x307c4(%rip),%ymm7,%ymm4 # 39520 <_sk_srcover_bgra_8888_sse2_lowp+0x4a8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,179,0,3,0 // vpshufb 0x300b3(%rip),%ymm7,%ymm5 # 38c80 <_sk_srcover_bgra_8888_sse2_lowp+0x4c8>
+ .byte 196,226,69,0,45,215,7,3,0 // vpshufb 0x307d7(%rip),%ymm7,%ymm5 # 39540 <_sk_srcover_bgra_8888_sse2_lowp+0x4c8>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,198,0,3,0 // vpshufb 0x300c6(%rip),%ymm7,%ymm6 # 38ca0 <_sk_srcover_bgra_8888_sse2_lowp+0x4e8>
+ .byte 196,226,69,0,53,234,7,3,0 // vpshufb 0x307ea(%rip),%ymm7,%ymm6 # 39560 <_sk_srcover_bgra_8888_sse2_lowp+0x4e8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,120,254,2,0 // vbroadcastss 0x2fe78(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,156,5,3,0 // vbroadcastss 0x3059c(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,151,254,2,0 // vbroadcastss 0x2fe97(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,187,5,3,0 // vbroadcastss 0x305bb(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -8569,7 +8645,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 8c9c <_sk_srcover_rgba_8888_hsw+0x10a>
+ .byte 117,65 // jne 8e38 <_sk_srcover_rgba_8888_hsw+0x10a>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8578,33 +8654,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 8bb8 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,59,255,255,255 // ja 8d54 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,0,1,0,0 // lea 0x100(%rip),%r10 # 8d88 <_sk_srcover_rgba_8888_hsw+0x1f6>
+ .byte 76,141,21,0,1,0,0 // lea 0x100(%rip),%r10 # 8f24 <_sk_srcover_rgba_8888_hsw+0x1f6>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 8bb8 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,28,255,255,255 // jmpq 8d54 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 8c61 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 119,181 // ja 8dfd <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,237,0,0,0 // lea 0xed(%rip),%r9 # 8da4 <_sk_srcover_rgba_8888_hsw+0x212>
+ .byte 76,141,13,237,0,0,0 // lea 0xed(%rip),%r9 # 8f40 <_sk_srcover_rgba_8888_hsw+0x212>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 8c61 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 235,153 // jmp 8dfd <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 8bb8 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,201,254,255,255 // jmpq 8d54 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8617,10 +8693,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 8bb8 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,122,254,255,255 // jmpq 8d54 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 8c61 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 8dfd <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8628,7 +8704,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 8c61 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,220,254,255,255 // jmpq 8dfd <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 15,31,0 // nopl (%rax)
.byte 9,255 // or %edi,%edi
.byte 255 // (bad)
@@ -8640,7 +8716,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 8d9d <_sk_srcover_rgba_8888_hsw+0x20b>
+ .byte 125,255 // jge 8f39 <_sk_srcover_rgba_8888_hsw+0x20b>
.byte 255 // (bad)
.byte 255,103,255 // jmpq *-0x1(%rdi)
.byte 255 // (bad)
@@ -8673,19 +8749,19 @@ _sk_srcover_bgra_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 8e93 <_sk_srcover_bgra_8888_hsw+0xd3>
+ .byte 15,133,179,0,0,0 // jne 902f <_sk_srcover_bgra_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,210,254,2,0 // vpand 0x2fed2(%rip),%ymm7,%ymm4 # 38cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x508>
+ .byte 197,197,219,37,246,5,3,0 // vpand 0x305f6(%rip),%ymm7,%ymm4 # 39580 <_sk_srcover_bgra_8888_sse2_lowp+0x508>
.byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6
- .byte 196,226,69,0,37,229,254,2,0 // vpshufb 0x2fee5(%rip),%ymm7,%ymm4 # 38ce0 <_sk_srcover_bgra_8888_sse2_lowp+0x528>
+ .byte 196,226,69,0,37,9,6,3,0 // vpshufb 0x30609(%rip),%ymm7,%ymm4 # 395a0 <_sk_srcover_bgra_8888_sse2_lowp+0x528>
.byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,226,69,0,37,248,254,2,0 // vpshufb 0x2fef8(%rip),%ymm7,%ymm4 # 38d00 <_sk_srcover_bgra_8888_sse2_lowp+0x548>
+ .byte 196,226,69,0,37,28,6,3,0 // vpshufb 0x3061c(%rip),%ymm7,%ymm4 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0x548>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,74,252,2,0 // vbroadcastss 0x2fc4a(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,110,3,3,0 // vbroadcastss 0x3036e(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,105,252,2,0 // vbroadcastss 0x2fc69(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,141,3,3,0 // vbroadcastss 0x3038d(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -8705,7 +8781,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 8eca <_sk_srcover_bgra_8888_hsw+0x10a>
+ .byte 117,65 // jne 9066 <_sk_srcover_bgra_8888_hsw+0x10a>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8714,33 +8790,33 @@ _sk_srcover_bgra_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 8de6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 15,135,59,255,255,255 // ja 8f82 <_sk_srcover_bgra_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 8fb4 <_sk_srcover_bgra_8888_hsw+0x1f4>
+ .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 9150 <_sk_srcover_bgra_8888_hsw+0x1f4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 8de6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,28,255,255,255 // jmpq 8f82 <_sk_srcover_bgra_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 8e8f <_sk_srcover_bgra_8888_hsw+0xcf>
+ .byte 119,181 // ja 902b <_sk_srcover_bgra_8888_hsw+0xcf>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 8fd0 <_sk_srcover_bgra_8888_hsw+0x210>
+ .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 916c <_sk_srcover_bgra_8888_hsw+0x210>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 8e8f <_sk_srcover_bgra_8888_hsw+0xcf>
+ .byte 235,153 // jmp 902b <_sk_srcover_bgra_8888_hsw+0xcf>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 8de6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,201,254,255,255 // jmpq 8f82 <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8753,10 +8829,10 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 8de6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,122,254,255,255 // jmpq 8f82 <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 8e8f <_sk_srcover_bgra_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 902b <_sk_srcover_bgra_8888_hsw+0xcf>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8764,7 +8840,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 8e8f <_sk_srcover_bgra_8888_hsw+0xcf>
+ .byte 233,220,254,255,255 // jmpq 902b <_sk_srcover_bgra_8888_hsw+0xcf>
.byte 144 // nop
.byte 11,255 // or %edi,%edi
.byte 255 // (bad)
@@ -8776,7 +8852,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 8fc9 <_sk_srcover_bgra_8888_hsw+0x209>
+ .byte 127,255 // jg 9165 <_sk_srcover_bgra_8888_hsw+0x209>
.byte 255 // (bad)
.byte 255,105,255 // ljmp *-0x1(%rcx)
.byte 255 // (bad)
@@ -8813,7 +8889,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,86,250,2,0 // vbroadcastss 0x2fa56(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,122,1,3,0 // vbroadcastss 0x3017a(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -8825,7 +8901,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,53,250,2,0 // vbroadcastss 0x2fa35(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,89,1,3,0 // vbroadcastss 0x30159(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -8837,7 +8913,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,23,250,2,0 // vbroadcastss 0x2fa17(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,59,1,3,0 // vbroadcastss 0x3013b(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -8870,7 +8946,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,210,249,2,0 // vbroadcastss 0x2f9d2(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,246,0,3,0 // vbroadcastss 0x300f6(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -8924,9 +9000,9 @@ HIDDEN _sk_unpremul_hsw
.globl _sk_unpremul_hsw
FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
- .byte 196,98,125,24,5,109,249,2,0 // vbroadcastss 0x2f96d(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,145,0,3,0 // vbroadcastss 0x30091(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,144,249,2,0 // vbroadcastss 0x2f990(%rip),%ymm9 # 38a98 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,180,0,3,0 // vbroadcastss 0x300b4(%rip),%ymm9 # 39358 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -8940,16 +9016,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,106,249,2,0 // vbroadcastss 0x2f96a(%rip),%ymm8 # 38a9c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,142,0,3,0 // vbroadcastss 0x3008e(%rip),%ymm8 # 3935c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,92,249,2,0 // vbroadcastss 0x2f95c(%rip),%ymm11 # 38aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,59,249,2,0 // vbroadcastss 0x2f93b(%rip),%ymm12 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,128,0,3,0 // vbroadcastss 0x30080(%rip),%ymm11 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,95,0,3,0 // vbroadcastss 0x3005f(%rip),%ymm12 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,68,249,2,0 // vbroadcastss 0x2f944(%rip),%ymm14 # 38aa4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,104,0,3,0 // vbroadcastss 0x30068(%rip),%ymm14 # 39364 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,58,249,2,0 // vbroadcastss 0x2f93a(%rip),%ymm10 # 38aa8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,94,0,3,0 // vbroadcastss 0x3005e(%rip),%ymm10 # 39368 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -8972,16 +9048,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,210,248,2,0 // vbroadcastss 0x2f8d2(%rip),%ymm8 # 38a9c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,246,255,2,0 // vbroadcastss 0x2fff6(%rip),%ymm8 # 3935c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,196,248,2,0 // vbroadcastss 0x2f8c4(%rip),%ymm11 # 38aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,163,248,2,0 // vbroadcastss 0x2f8a3(%rip),%ymm12 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,232,255,2,0 // vbroadcastss 0x2ffe8(%rip),%ymm11 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,199,255,2,0 // vbroadcastss 0x2ffc7(%rip),%ymm12 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,172,248,2,0 // vbroadcastss 0x2f8ac(%rip),%ymm14 # 38aa4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,208,255,2,0 // vbroadcastss 0x2ffd0(%rip),%ymm14 # 39364 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,162,248,2,0 // vbroadcastss 0x2f8a2(%rip),%ymm10 # 38aa8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,198,255,2,0 // vbroadcastss 0x2ffc6(%rip),%ymm10 # 39368 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -9005,19 +9081,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,70,248,2,0 // vbroadcastss 0x2f846(%rip),%ymm8 # 38aac <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,106,255,2,0 // vbroadcastss 0x2ff6a(%rip),%ymm8 # 3936c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,60,248,2,0 // vbroadcastss 0x2f83c(%rip),%ymm11 # 38ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,55,248,2,0 // vbroadcastss 0x2f837(%rip),%ymm12 # 38ab4 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,96,255,2,0 // vbroadcastss 0x2ff60(%rip),%ymm11 # 39370 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,91,255,2,0 // vbroadcastss 0x2ff5b(%rip),%ymm12 # 39374 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,88,249,2,0 // vbroadcastss 0x2f958(%rip),%ymm14 # 38be8 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,124,0,3,0 // vbroadcastss 0x3007c(%rip),%ymm14 # 394a8 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,78,249,2,0 // vbroadcastss 0x2f94e(%rip),%ymm15 # 38bec <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,114,0,3,0 // vbroadcastss 0x30072(%rip),%ymm15 # 394ac <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,10,248,2,0 // vbroadcastss 0x2f80a(%rip),%ymm13 # 38ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,46,255,2,0 // vbroadcastss 0x2ff2e(%rip),%ymm13 # 39380 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -9051,26 +9127,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,33,247,2,0 // vbroadcastss 0x2f721(%rip),%ymm11 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,69,254,2,0 // vbroadcastss 0x2fe45(%rip),%ymm11 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,102,247,2,0 // vbroadcastss 0x2f766(%rip),%ymm14 # 38ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,53,138,254,2,0 // vbroadcastss 0x2fe8a(%rip),%ymm14 # 39384 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,77,247,2,0 // vbroadcastss 0x2f74d(%rip),%ymm14 # 38acc <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,113,254,2,0 // vbroadcastss 0x2fe71(%rip),%ymm14 # 3938c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,59,247,2,0 // vbroadcastss 0x2f73b(%rip),%ymm14 # 38ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,53,95,254,2,0 // vbroadcastss 0x2fe5f(%rip),%ymm14 # 39388 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,174,246,2,0 // vbroadcastss 0x2f6ae(%rip),%ymm11 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,210,253,2,0 // vbroadcastss 0x2fdd2(%rip),%ymm11 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -9080,7 +9156,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,225,246,2,0 // vbroadcastss 0x2f6e1(%rip),%ymm8 # 38ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,5,254,2,0 // vbroadcastss 0x2fe05(%rip),%ymm8 # 39390 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9097,30 +9173,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,58,246,2,0 // vbroadcastss 0x2f63a(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,94,253,2,0 // vbroadcastss 0x2fd5e(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,125,246,2,0 // vbroadcastss 0x2f67d(%rip),%ymm9 # 38ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,13,161,253,2,0 // vbroadcastss 0x2fda1(%rip),%ymm9 # 39388 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,123,246,2,0 // vbroadcastss 0x2f67b(%rip),%ymm11 # 38ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,159,253,2,0 // vbroadcastss 0x2fd9f(%rip),%ymm11 # 39394 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,77,246,2,0 // vbroadcastss 0x2f64d(%rip),%ymm13 # 38ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,45,113,253,2,0 // vbroadcastss 0x2fd71(%rip),%ymm13 # 39384 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,71,246,2,0 // vbroadcastss 0x2f647(%rip),%ymm14 # 38acc <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,107,253,2,0 // vbroadcastss 0x2fd6b(%rip),%ymm14 # 3938c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,65,246,2,0 // vbroadcastss 0x2f641(%rip),%ymm3 # 38ad8 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,29,101,253,2,0 // vbroadcastss 0x2fd65(%rip),%ymm3 # 39398 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,24,246,2,0 // vbroadcastss 0x2f618(%rip),%ymm12 # 38ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,37,60,253,2,0 // vbroadcastss 0x2fd3c(%rip),%ymm12 # 39390 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -9136,7 +9212,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,204,245,2,0 // vbroadcastss 0x2f5cc(%rip),%ymm0 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,240,252,2,0 // vbroadcastss 0x2fcf0(%rip),%ymm0 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -9188,12 +9264,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 95ff <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 979b <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,125,253,2,0 // vpand 0x2fd7d(%rip),%xmm8,%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,57,219,5,161,4,3,0 // vpand 0x304a1(%rip),%xmm8,%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,250,244,2,0 // vbroadcastss 0x2f4fa(%rip),%ymm9 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,30,252,2,0 // vbroadcastss 0x2fc1e(%rip),%ymm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9206,15 +9282,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 95cb <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 9767 <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9698 <_sk_scale_u8_hsw+0xeb>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9834 <_sk_scale_u8_hsw+0xeb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 95cb <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 9767 <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9222,7 +9298,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 95cb <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 9767 <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9233,7 +9309,7 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 95cb <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 9767 <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -9267,23 +9343,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 9774 <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 9910 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,253,243,2,0 // vpbroadcastd 0x2f3fd(%rip),%ymm9 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,33,251,2,0 // vpbroadcastd 0x2fb21(%rip),%ymm9 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,238,243,2,0 // vbroadcastss 0x2f3ee(%rip),%ymm10 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,18,251,2,0 // vbroadcastss 0x2fb12(%rip),%ymm10 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,228,243,2,0 // vpbroadcastd 0x2f3e4(%rip),%ymm10 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,8,251,2,0 // vpbroadcastd 0x2fb08(%rip),%ymm10 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,213,243,2,0 // vbroadcastss 0x2f3d5(%rip),%ymm11 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,249,250,2,0 // vbroadcastss 0x2faf9(%rip),%ymm11 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,203,243,2,0 // vpbroadcastd 0x2f3cb(%rip),%ymm11 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,239,250,2,0 // vpbroadcastd 0x2faef(%rip),%ymm11 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,188,243,2,0 // vbroadcastss 0x2f3bc(%rip),%ymm11 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,224,250,2,0 // vbroadcastss 0x2fae0(%rip),%ymm11 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9302,27 +9378,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 96d9 <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 9875 <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 97fc <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9998 <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 96d9 <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 9875 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 96d9 <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 9875 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 96d9 <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 9875 <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9372,12 +9448,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 98ad <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9a49 <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,227,250,2,0 // vpand 0x2fae3(%rip),%xmm8,%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,57,219,5,7,2,3,0 // vpand 0x30207(%rip),%xmm8,%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,96,242,2,0 // vbroadcastss 0x2f260(%rip),%ymm9 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,132,249,2,0 // vbroadcastss 0x2f984(%rip),%ymm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -9394,15 +9470,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 9865 <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 9a01 <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9948 <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9ae4 <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 9865 <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 9a01 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9410,7 +9486,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 9865 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 9a01 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9421,7 +9497,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 9865 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 9a01 <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -9429,7 +9505,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde009958 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd11a0>
+ .byte 232,255,255,255,221 // callq ffffffffde009af4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0a7c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -9452,23 +9528,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 9a38 <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne 9bd4 <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,77,241,2,0 // vpbroadcastd 0x2f14d(%rip),%ymm9 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,113,248,2,0 // vpbroadcastd 0x2f871(%rip),%ymm9 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,62,241,2,0 // vbroadcastss 0x2f13e(%rip),%ymm10 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,98,248,2,0 // vbroadcastss 0x2f862(%rip),%ymm10 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,52,241,2,0 // vpbroadcastd 0x2f134(%rip),%ymm10 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,88,248,2,0 // vpbroadcastd 0x2f858(%rip),%ymm10 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,37,241,2,0 // vbroadcastss 0x2f125(%rip),%ymm11 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,73,248,2,0 // vbroadcastss 0x2f849(%rip),%ymm11 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,27,241,2,0 // vpbroadcastd 0x2f11b(%rip),%ymm11 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,63,248,2,0 // vpbroadcastd 0x2f83f(%rip),%ymm11 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,12,241,2,0 // vbroadcastss 0x2f10c(%rip),%ymm11 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,48,248,2,0 // vbroadcastss 0x2f830(%rip),%ymm11 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9491,27 +9567,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja 9989 <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja 9b25 <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9ac0 <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9c5c <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq 9989 <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq 9b25 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq 9989 <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq 9b25 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq 9989 <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq 9b25 <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9540,9 +9616,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 9b5a <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne 9cf6 <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,44,242,2,0 // vpand 0x2f22c(%rip),%ymm3,%ymm1 # 38d20 <_sk_srcover_bgra_8888_sse2_lowp+0x568>
+ .byte 197,229,219,13,80,249,2,0 // vpand 0x2f950(%rip),%ymm3,%ymm1 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0x568>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -9550,16 +9626,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,35,242,2,0 // vpshufb 0x2f223(%rip),%ymm3,%ymm9 # 38d40 <_sk_srcover_bgra_8888_sse2_lowp+0x588>
+ .byte 196,98,101,0,13,71,249,2,0 // vpshufb 0x2f947(%rip),%ymm3,%ymm9 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0x588>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,39,242,2,0 // vpshufb 0x2f227(%rip),%ymm3,%ymm9 # 38d60 <_sk_srcover_bgra_8888_sse2_lowp+0x5a8>
+ .byte 196,98,101,0,13,75,249,2,0 // vpshufb 0x2f94b(%rip),%ymm3,%ymm9 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0x5a8>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,143,239,2,0 // vbroadcastss 0x2ef8f(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,179,246,2,0 // vbroadcastss 0x2f6b3(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9568,21 +9644,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 9aec <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja 9c88 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 9c08 <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 9da4 <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 9aec <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq 9c88 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 9aec <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq 9c88 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -9595,8 +9671,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 9aec <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg 9c09 <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq 9c88 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg 9da5 <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -9624,7 +9700,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne 9d11 <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne 9ead <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -9640,7 +9716,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,196,246,2,0 // vmovdqa 0x2f6c4(%rip),%xmm11 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,121,111,29,232,253,2,0 // vmovdqa 0x2fde8(%rip),%xmm11 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -9665,36 +9741,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,244,237,2,0 // vbroadcastss 0x2edf4(%rip),%ymm8 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,5,24,245,2,0 // vbroadcastss 0x2f518(%rip),%ymm8 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 9d77 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je 9f13 <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 9d77 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb 9f13 <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 9d84 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je 9f20 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 9d84 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb 9f20 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je 9c55 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je 9df1 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb 9c55 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb 9df1 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq 9c55 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq 9df1 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq 9c55 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq 9df1 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq 9c55 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq 9df1 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -9704,7 +9780,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne 9e6d <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne a009 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -9725,7 +9801,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,68,245,2,0 // vmovdqa 0x2f544(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,249,111,29,104,252,2,0 // vmovdqa 0x2fc68(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -9745,76 +9821,76 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,253,235,2,0 // vbroadcastss 0x2ebfd(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,33,243,2,0 // vbroadcastss 0x2f321(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 9ea5 <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne a041 <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 9dd4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq 9f70 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 9eef <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb a08b <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 9f09 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne a0a5 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 9dd4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq 9f70 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 9dd4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq 9f70 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 9f4a <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb a0e6 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 9f5b <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne a0f7 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 9dd4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq 9f70 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 9dd4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq 9f70 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 9f8e <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb a12a <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 9dd4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq 9f70 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 9dd4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq 9f70 <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,242,234,2,0 // vbroadcastss 0x2eaf2(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,22,242,2,0 // vbroadcastss 0x2f216(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -9944,7 +10020,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,196,232,2,0 // vbroadcastss 0x2e8c4(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,232,239,2,0 // vbroadcastss 0x2efe8(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10066,7 +10142,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,152,230,2,0 // vbroadcastss 0x2e698(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,188,237,2,0 // vbroadcastss 0x2edbc(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10169,33 +10245,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,126,229,2,0 // vbroadcastss 0x2e57e(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,45,121,229,2,0 // vbroadcastss 0x2e579(%rip),%ymm13 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,162,236,2,0 // vbroadcastss 0x2eca2(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,157,236,2,0 // vbroadcastss 0x2ec9d(%rip),%ymm13 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,203,228,2,0 // vbroadcastss 0x2e4cb(%rip),%ymm13 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,239,235,2,0 // vbroadcastss 0x2ebef(%rip),%ymm13 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,97,229,2,0 // vbroadcastss 0x2e561(%rip),%ymm13 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,133,236,2,0 // vbroadcastss 0x2ec85(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,87,229,2,0 // vbroadcastss 0x2e557(%rip),%ymm11 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,29,123,236,2,0 // vbroadcastss 0x2ec7b(%rip),%ymm11 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,77,229,2,0 // vbroadcastss 0x2e54d(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,113,236,2,0 // vbroadcastss 0x2ec71(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,67,229,2,0 // vbroadcastss 0x2e543(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,103,236,2,0 // vbroadcastss 0x2ec67(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,36,229,2,0 // vbroadcastss 0x2e524(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,72,236,2,0 // vbroadcastss 0x2ec48(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,26,229,2,0 // vbroadcastss 0x2e51a(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,62,236,2,0 // vbroadcastss 0x2ec3e(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,16,229,2,0 // vbroadcastss 0x2e510(%rip),%ymm0 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,5,52,236,2,0 // vbroadcastss 0x2ec34(%rip),%ymm0 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,6,229,2,0 // vbroadcastss 0x2e506(%rip),%ymm10 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,21,42,236,2,0 // vbroadcastss 0x2ec2a(%rip),%ymm10 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,249,228,2,0 // vbroadcastss 0x2e4f9(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,29,236,2,0 // vbroadcastss 0x2ec1d(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -10203,7 +10279,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,13,228,2,0 // vbroadcastss 0x2e40d(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,49,235,2,0 // vbroadcastss 0x2eb31(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10223,33 +10299,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,89,228,2,0 // vbroadcastss 0x2e459(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,45,84,228,2,0 // vbroadcastss 0x2e454(%rip),%ymm13 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,125,235,2,0 // vbroadcastss 0x2eb7d(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,120,235,2,0 // vbroadcastss 0x2eb78(%rip),%ymm13 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,166,227,2,0 // vbroadcastss 0x2e3a6(%rip),%ymm13 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,202,234,2,0 // vbroadcastss 0x2eaca(%rip),%ymm13 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,60,228,2,0 // vbroadcastss 0x2e43c(%rip),%ymm13 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,96,235,2,0 // vbroadcastss 0x2eb60(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,50,228,2,0 // vbroadcastss 0x2e432(%rip),%ymm11 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,29,86,235,2,0 // vbroadcastss 0x2eb56(%rip),%ymm11 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,40,228,2,0 // vbroadcastss 0x2e428(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,76,235,2,0 // vbroadcastss 0x2eb4c(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,30,228,2,0 // vbroadcastss 0x2e41e(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,66,235,2,0 // vbroadcastss 0x2eb42(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,255,227,2,0 // vbroadcastss 0x2e3ff(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,35,235,2,0 // vbroadcastss 0x2eb23(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,245,227,2,0 // vbroadcastss 0x2e3f5(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,25,235,2,0 // vbroadcastss 0x2eb19(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,235,227,2,0 // vbroadcastss 0x2e3eb(%rip),%ymm1 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,13,15,235,2,0 // vbroadcastss 0x2eb0f(%rip),%ymm1 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,225,227,2,0 // vbroadcastss 0x2e3e1(%rip),%ymm10 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,21,5,235,2,0 // vbroadcastss 0x2eb05(%rip),%ymm10 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,212,227,2,0 // vbroadcastss 0x2e3d4(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,248,234,2,0 // vbroadcastss 0x2eaf8(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -10257,7 +10333,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,232,226,2,0 // vbroadcastss 0x2e2e8(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,12,234,2,0 // vbroadcastss 0x2ea0c(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10277,33 +10353,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,52,227,2,0 // vbroadcastss 0x2e334(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,45,47,227,2,0 // vbroadcastss 0x2e32f(%rip),%ymm13 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,88,234,2,0 // vbroadcastss 0x2ea58(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,83,234,2,0 // vbroadcastss 0x2ea53(%rip),%ymm13 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,129,226,2,0 // vbroadcastss 0x2e281(%rip),%ymm13 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,165,233,2,0 // vbroadcastss 0x2e9a5(%rip),%ymm13 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,23,227,2,0 // vbroadcastss 0x2e317(%rip),%ymm13 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,59,234,2,0 // vbroadcastss 0x2ea3b(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,13,227,2,0 // vbroadcastss 0x2e30d(%rip),%ymm11 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,29,49,234,2,0 // vbroadcastss 0x2ea31(%rip),%ymm11 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,3,227,2,0 // vbroadcastss 0x2e303(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,39,234,2,0 // vbroadcastss 0x2ea27(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,249,226,2,0 // vbroadcastss 0x2e2f9(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,29,234,2,0 // vbroadcastss 0x2ea1d(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,218,226,2,0 // vbroadcastss 0x2e2da(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,254,233,2,0 // vbroadcastss 0x2e9fe(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,208,226,2,0 // vbroadcastss 0x2e2d0(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,244,233,2,0 // vbroadcastss 0x2e9f4(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,198,226,2,0 // vbroadcastss 0x2e2c6(%rip),%ymm2 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,21,234,233,2,0 // vbroadcastss 0x2e9ea(%rip),%ymm2 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,188,226,2,0 // vbroadcastss 0x2e2bc(%rip),%ymm10 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,21,224,233,2,0 // vbroadcastss 0x2e9e0(%rip),%ymm10 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,175,226,2,0 // vbroadcastss 0x2e2af(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,211,233,2,0 // vbroadcastss 0x2e9d3(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -10311,7 +10387,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,195,225,2,0 // vbroadcastss 0x2e1c3(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,231,232,2,0 // vbroadcastss 0x2e8e7(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10331,33 +10407,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,15,226,2,0 // vbroadcastss 0x2e20f(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,45,10,226,2,0 // vbroadcastss 0x2e20a(%rip),%ymm13 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,51,233,2,0 // vbroadcastss 0x2e933(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,46,233,2,0 // vbroadcastss 0x2e92e(%rip),%ymm13 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,92,225,2,0 // vbroadcastss 0x2e15c(%rip),%ymm13 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,128,232,2,0 // vbroadcastss 0x2e880(%rip),%ymm13 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,242,225,2,0 // vbroadcastss 0x2e1f2(%rip),%ymm13 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,22,233,2,0 // vbroadcastss 0x2e916(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,232,225,2,0 // vbroadcastss 0x2e1e8(%rip),%ymm11 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,29,12,233,2,0 // vbroadcastss 0x2e90c(%rip),%ymm11 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,222,225,2,0 // vbroadcastss 0x2e1de(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,2,233,2,0 // vbroadcastss 0x2e902(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,212,225,2,0 // vbroadcastss 0x2e1d4(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,248,232,2,0 // vbroadcastss 0x2e8f8(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,181,225,2,0 // vbroadcastss 0x2e1b5(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,217,232,2,0 // vbroadcastss 0x2e8d9(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,171,225,2,0 // vbroadcastss 0x2e1ab(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,207,232,2,0 // vbroadcastss 0x2e8cf(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,161,225,2,0 // vbroadcastss 0x2e1a1(%rip),%ymm3 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,29,197,232,2,0 // vbroadcastss 0x2e8c5(%rip),%ymm3 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,151,225,2,0 // vbroadcastss 0x2e197(%rip),%ymm10 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,21,187,232,2,0 // vbroadcastss 0x2e8bb(%rip),%ymm10 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,138,225,2,0 // vbroadcastss 0x2e18a(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,174,232,2,0 // vbroadcastss 0x2e8ae(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -10365,7 +10441,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,158,224,2,0 // vbroadcastss 0x2e09e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,194,231,2,0 // vbroadcastss 0x2e7c2(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10384,35 +10460,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,245,224,2,0 // vbroadcastss 0x2e0f5(%rip),%ymm11 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,45,240,224,2,0 // vbroadcastss 0x2e0f0(%rip),%ymm5 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,25,232,2,0 // vbroadcastss 0x2e819(%rip),%ymm11 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,45,20,232,2,0 // vbroadcastss 0x2e814(%rip),%ymm5 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,67,224,2,0 // vbroadcastss 0x2e043(%rip),%ymm4 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,37,103,231,2,0 // vbroadcastss 0x2e767(%rip),%ymm4 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,218,224,2,0 // vbroadcastss 0x2e0da(%rip),%ymm13 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,254,231,2,0 // vbroadcastss 0x2e7fe(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,208,224,2,0 // vbroadcastss 0x2e0d0(%rip),%ymm9 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,13,244,231,2,0 // vbroadcastss 0x2e7f4(%rip),%ymm9 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,180,224,2,0 // vbroadcastss 0x2e0b4(%rip),%ymm11 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,216,231,2,0 // vbroadcastss 0x2e7d8(%rip),%ymm11 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,170,224,2,0 // vbroadcastss 0x2e0aa(%rip),%ymm13 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,45,206,231,2,0 // vbroadcastss 0x2e7ce(%rip),%ymm13 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,134,224,2,0 // vbroadcastss 0x2e086(%rip),%ymm2 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,226,125,24,21,170,231,2,0 // vbroadcastss 0x2e7aa(%rip),%ymm2 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,125,224,2,0 // vbroadcastss 0x2e07d(%rip),%ymm3 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,226,125,24,29,161,231,2,0 // vbroadcastss 0x2e7a1(%rip),%ymm3 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,115,224,2,0 // vbroadcastss 0x2e073(%rip),%ymm1 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,13,151,231,2,0 // vbroadcastss 0x2e797(%rip),%ymm1 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,105,224,2,0 // vbroadcastss 0x2e069(%rip),%ymm0 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,5,141,231,2,0 // vbroadcastss 0x2e78d(%rip),%ymm0 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -10443,7 +10519,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,218,223,2,0 // vbroadcastss 0x2dfda(%rip),%ymm1 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,13,254,230,2,0 // vbroadcastss 0x2e6fe(%rip),%ymm1 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -10459,30 +10535,119 @@ _sk_gamma_hsw:
.byte 72,131,196,56 // add $0x38,%rsp
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_gamma_dst_hsw
+.globl _sk_gamma_dst_hsw
+FUNCTION(_sk_gamma_dst_hsw)
+_sk_gamma_dst_hsw:
+ .byte 72,131,236,56 // sub $0x38,%rsp
+ .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp)
+ .byte 197,252,40,254 // vmovaps %ymm6,%ymm7
+ .byte 197,252,40,245 // vmovaps %ymm5,%ymm6
+ .byte 197,252,17,92,36,224 // vmovups %ymm3,-0x20(%rsp)
+ .byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
+ .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
+ .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
+ .byte 196,98,125,24,29,97,230,2,0 // vbroadcastss 0x2e661(%rip),%ymm11 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,45,92,230,2,0 // vbroadcastss 0x2e65c(%rip),%ymm5 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 197,92,84,205 // vandps %ymm5,%ymm4,%ymm9
+ .byte 196,226,125,24,37,175,229,2,0 // vbroadcastss 0x2e5af(%rip),%ymm4 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
+ .byte 196,98,125,24,45,70,230,2,0 // vbroadcastss 0x2e646(%rip),%ymm13 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
+ .byte 196,98,125,24,13,60,230,2,0 // vbroadcastss 0x2e63c(%rip),%ymm9 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
+ .byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
+ .byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
+ .byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
+ .byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
+ .byte 196,98,125,24,29,32,230,2,0 // vbroadcastss 0x2e620(%rip),%ymm11 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
+ .byte 196,98,125,24,45,22,230,2,0 // vbroadcastss 0x2e616(%rip),%ymm13 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
+ .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
+ .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
+ .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
+ .byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
+ .byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
+ .byte 196,226,125,24,21,242,229,2,0 // vbroadcastss 0x2e5f2(%rip),%ymm2 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
+ .byte 196,226,125,24,29,233,229,2,0 // vbroadcastss 0x2e5e9(%rip),%ymm3 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
+ .byte 196,226,125,24,13,223,229,2,0 // vbroadcastss 0x2e5df(%rip),%ymm1 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
+ .byte 196,226,125,24,5,213,229,2,0 // vbroadcastss 0x2e5d5(%rip),%ymm0 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
+ .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
+ .byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
+ .byte 197,204,86,244 // vorps %ymm4,%ymm6,%ymm6
+ .byte 196,66,77,188,241 // vfnmadd231ps %ymm9,%ymm6,%ymm14
+ .byte 196,193,76,88,243 // vaddps %ymm11,%ymm6,%ymm6
+ .byte 197,148,94,246 // vdivps %ymm6,%ymm13,%ymm6
+ .byte 197,140,92,246 // vsubps %ymm6,%ymm14,%ymm6
+ .byte 196,193,76,89,244 // vmulps %ymm12,%ymm6,%ymm6
+ .byte 196,99,125,8,214,1 // vroundps $0x1,%ymm6,%ymm10
+ .byte 196,65,76,92,210 // vsubps %ymm10,%ymm6,%ymm10
+ .byte 197,204,88,242 // vaddps %ymm2,%ymm6,%ymm6
+ .byte 196,226,45,188,243 // vfnmadd231ps %ymm3,%ymm10,%ymm6
+ .byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
+ .byte 196,65,124,94,210 // vdivps %ymm10,%ymm0,%ymm10
+ .byte 196,193,76,88,242 // vaddps %ymm10,%ymm6,%ymm6
+ .byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
+ .byte 197,212,86,228 // vorps %ymm4,%ymm5,%ymm4
+ .byte 196,66,93,188,249 // vfnmadd231ps %ymm9,%ymm4,%ymm15
+ .byte 196,193,92,88,227 // vaddps %ymm11,%ymm4,%ymm4
+ .byte 197,148,94,228 // vdivps %ymm4,%ymm13,%ymm4
+ .byte 197,132,92,228 // vsubps %ymm4,%ymm15,%ymm4
+ .byte 196,193,92,89,228 // vmulps %ymm12,%ymm4,%ymm4
+ .byte 196,227,125,8,236,1 // vroundps $0x1,%ymm4,%ymm5
+ .byte 197,220,92,237 // vsubps %ymm5,%ymm4,%ymm5
+ .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
+ .byte 196,226,85,188,211 // vfnmadd231ps %ymm3,%ymm5,%ymm2
+ .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
+ .byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
+ .byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
+ .byte 196,226,125,24,13,70,229,2,0 // vbroadcastss 0x2e546(%rip),%ymm1 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
+ .byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
+ .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
+ .byte 197,253,91,226 // vcvtps2dq %ymm2,%ymm4
+ .byte 197,253,91,235 // vcvtps2dq %ymm3,%ymm5
+ .byte 197,253,91,240 // vcvtps2dq %ymm0,%ymm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0
+ .byte 197,252,16,76,36,160 // vmovups -0x60(%rsp),%ymm1
+ .byte 197,252,16,84,36,192 // vmovups -0x40(%rsp),%ymm2
+ .byte 197,252,16,92,36,224 // vmovups -0x20(%rsp),%ymm3
+ .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7
+ .byte 72,131,196,56 // add $0x38,%rsp
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,152,223,2,0 // vbroadcastss 0x2df98(%rip),%ymm8 # 38b2c <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,247,222,2,0 // vbroadcastss 0x2def7(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,138,223,2,0 // vbroadcastss 0x2df8a(%rip),%ymm10 # 38b30 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,4,229,2,0 // vbroadcastss 0x2e504(%rip),%ymm8 # 393ec <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,99,228,2,0 // vbroadcastss 0x2e463(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,246,228,2,0 // vbroadcastss 0x2e4f6(%rip),%ymm10 # 393f0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,123,223,2,0 // vbroadcastss 0x2df7b(%rip),%ymm9 # 38b34 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,13,231,228,2,0 // vbroadcastss 0x2e4e7(%rip),%ymm9 # 393f4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,113,223,2,0 // vbroadcastss 0x2df71(%rip),%ymm0 # 38b38 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,226,125,24,5,221,228,2,0 // vbroadcastss 0x2e4dd(%rip),%ymm0 # 393f8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,104,223,2,0 // vbroadcastss 0x2df68(%rip),%ymm8 # 38b3c <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,212,228,2,0 // vbroadcastss 0x2e4d4(%rip),%ymm8 # 393fc <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,94,223,2,0 // vbroadcastss 0x2df5e(%rip),%ymm9 # 38b40 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,13,202,228,2,0 // vbroadcastss 0x2e4ca(%rip),%ymm9 # 39400 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,75,223,2,0 // vbroadcastss 0x2df4b(%rip),%ymm2 # 38b44 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,226,125,24,21,183,228,2,0 // vbroadcastss 0x2e4b7(%rip),%ymm2 # 39404 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,65,223,2,0 // vbroadcastss 0x2df41(%rip),%ymm11 # 38b48 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,173,228,2,0 // vbroadcastss 0x2e4ad(%rip),%ymm11 # 39408 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,55,223,2,0 // vbroadcastss 0x2df37(%rip),%ymm12 # 38b4c <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,163,228,2,0 // vbroadcastss 0x2e4a3(%rip),%ymm12 # 3940c <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -10497,9 +10662,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,236,222,2,0 // vbroadcastss 0x2deec(%rip),%ymm0 # 38b50 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,88,228,2,0 // vbroadcastss 0x2e458(%rip),%ymm0 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,227,222,2,0 // vbroadcastss 0x2dee3(%rip),%ymm8 # 38b54 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,79,228,2,0 // vbroadcastss 0x2e44f(%rip),%ymm8 # 39414 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10515,12 +10680,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne acc6 <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne b01a <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,176,230,2,0 // vpand 0x2e6b0(%rip),%xmm0,%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,249,219,5,28,236,2,0 // vpand 0x2ec1c(%rip),%xmm0,%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,46,222,2,0 // vbroadcastss 0x2de2e(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,154,227,2,0 // vbroadcastss 0x2e39a(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -10532,15 +10697,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja ac98 <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja afec <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # ad5c <_sk_load_a8_hsw+0xe2>
+ .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # b0b0 <_sk_load_a8_hsw+0xe2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp ac98 <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp afec <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -10548,7 +10713,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq ac98 <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq afec <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -10559,7 +10724,7 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq ac98 <_sk_load_a8_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq afec <_sk_load_a8_hsw+0x1e>
.byte 146 // xchg %eax,%edx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -10591,12 +10756,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne adc4 <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne b118 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,178,229,2,0 // vpand 0x2e5b2(%rip),%xmm4,%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,217,219,37,30,235,2,0 // vpand 0x2eb1e(%rip),%xmm4,%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,48,221,2,0 // vbroadcastss 0x2dd30(%rip),%ymm5 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,156,226,2,0 // vbroadcastss 0x2e29c(%rip),%ymm5 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -10608,15 +10773,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja ad96 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja b0ea <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # ae5c <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b1b0 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp ad96 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp b0ea <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -10624,7 +10789,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq ad96 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq b0ea <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -10635,7 +10800,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq ad96 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq b0ea <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -10644,7 +10809,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00ae6c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd26b4>
+ .byte 232,255,255,255,221 // callq ffffffffde00b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd2148>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -10711,7 +10876,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,119,219,2,0 // vbroadcastss 0x2db77(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,227,224,2,0 // vbroadcastss 0x2e0e3(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -10733,14 +10898,14 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,244,218,2,0 // vbroadcastss 0x2daf4(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,96,224,2,0 // vbroadcastss 0x2e060(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne afc8 <_sk_store_a8_hsw+0x44>
+ .byte 117,10 // jne b31c <_sk_store_a8_hsw+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10748,25 +10913,25 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja afc4 <_sk_store_a8_hsw+0x40>
+ .byte 119,236 // ja b318 <_sk_store_a8_hsw+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # b040 <_sk_store_a8_hsw+0xbc>
+ .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # b394 <_sk_store_a8_hsw+0xbc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp afc4 <_sk_store_a8_hsw+0x40>
+ .byte 235,202 // jmp b318 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,85,227,2,0 // vpshufb 0x2e355(%rip),%xmm8,%xmm8 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
+ .byte 196,98,57,0,5,193,232,2,0 // vpshufb 0x2e8c1(%rip),%xmm8,%xmm8 # 39c20 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp afc4 <_sk_store_a8_hsw+0x40>
+ .byte 235,176 // jmp b318 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,59,227,2,0 // vpshufb 0x2e33b(%rip),%xmm8,%xmm8 # 39370 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
+ .byte 196,98,57,0,5,167,232,2,0 // vpshufb 0x2e8a7(%rip),%xmm8,%xmm8 # 39c30 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp afc4 <_sk_store_a8_hsw+0x40>
+ .byte 235,135 // jmp b318 <_sk_store_a8_hsw+0x40>
.byte 15,31,0 // nopl (%rax)
.byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
@@ -10799,15 +10964,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne b0ad <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne b401 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,206,226,2,0 // vpand 0x2e2ce(%rip),%xmm0,%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,249,219,5,58,232,2,0 // vpand 0x2e83a(%rip),%xmm0,%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,76,218,2,0 // vbroadcastss 0x2da4c(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,184,223,2,0 // vbroadcastss 0x2dfb8(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,197,217,2,0 // vbroadcastss 0x2d9c5(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,49,223,2,0 // vbroadcastss 0x2df31(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -10816,15 +10981,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja b07a <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja b3ce <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b144 <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b498 <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp b07a <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp b3ce <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -10832,7 +10997,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq b07a <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq b3ce <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -10843,7 +11008,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq b07a <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq b3ce <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -10852,7 +11017,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b154 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd299c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b4a8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd2430>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -10874,15 +11039,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne b1b1 <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne b505 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,202,225,2,0 // vpand 0x2e1ca(%rip),%xmm4,%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,217,219,37,54,231,2,0 // vpand 0x2e736(%rip),%xmm4,%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,72,217,2,0 // vbroadcastss 0x2d948(%rip),%ymm5 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,180,222,2,0 // vbroadcastss 0x2deb4(%rip),%ymm5 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,193,216,2,0 // vbroadcastss 0x2d8c1(%rip),%ymm7 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,45,222,2,0 // vbroadcastss 0x2de2d(%rip),%ymm7 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -10891,15 +11056,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja b17e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja b4d2 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b248 <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b59c <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp b17e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp b4d2 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -10907,7 +11072,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq b17e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq b4d2 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -10918,7 +11083,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq b17e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq b4d2 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -10927,7 +11092,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b258 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd2aa0>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b5ac <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd2534>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -10994,10 +11159,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,139,215,2,0 // vbroadcastss 0x2d78b(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,247,220,2,0 // vbroadcastss 0x2dcf7(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,4,215,2,0 // vbroadcastss 0x2d704(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,112,220,2,0 // vbroadcastss 0x2dc70(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -11018,53 +11183,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne b402 <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne b756 <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,64,215,2,0 // vpbroadcastd 0x2d740(%rip),%ymm0 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,172,220,2,0 // vpbroadcastd 0x2dcac(%rip),%ymm0 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,51,215,2,0 // vbroadcastss 0x2d733(%rip),%ymm1 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,159,220,2,0 // vbroadcastss 0x2dc9f(%rip),%ymm1 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,42,215,2,0 // vpbroadcastd 0x2d72a(%rip),%ymm1 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,150,220,2,0 // vpbroadcastd 0x2dc96(%rip),%ymm1 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,29,215,2,0 // vbroadcastss 0x2d71d(%rip),%ymm3 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,137,220,2,0 // vbroadcastss 0x2dc89(%rip),%ymm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,20,215,2,0 // vpbroadcastd 0x2d714(%rip),%ymm3 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,128,220,2,0 // vpbroadcastd 0x2dc80(%rip),%ymm3 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,7,215,2,0 // vbroadcastss 0x2d707(%rip),%ymm3 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,115,220,2,0 // vbroadcastss 0x2dc73(%rip),%ymm3 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,104,214,2,0 // vbroadcastss 0x2d668(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,212,219,2,0 // vbroadcastss 0x2dbd4(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja b396 <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja b6ea <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b484 <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b7d8 <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq b396 <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq b6ea <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq b396 <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq b6ea <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq b396 <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq b6ea <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -11097,53 +11262,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne b52d <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne b881 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,21,214,2,0 // vpbroadcastd 0x2d615(%rip),%ymm4 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,37,129,219,2,0 // vpbroadcastd 0x2db81(%rip),%ymm4 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,8,214,2,0 // vbroadcastss 0x2d608(%rip),%ymm5 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,116,219,2,0 // vbroadcastss 0x2db74(%rip),%ymm5 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,255,213,2,0 // vpbroadcastd 0x2d5ff(%rip),%ymm5 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,45,107,219,2,0 // vpbroadcastd 0x2db6b(%rip),%ymm5 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,242,213,2,0 // vbroadcastss 0x2d5f2(%rip),%ymm7 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,94,219,2,0 // vbroadcastss 0x2db5e(%rip),%ymm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,233,213,2,0 // vpbroadcastd 0x2d5e9(%rip),%ymm7 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,61,85,219,2,0 // vpbroadcastd 0x2db55(%rip),%ymm7 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,220,213,2,0 // vbroadcastss 0x2d5dc(%rip),%ymm7 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,72,219,2,0 // vbroadcastss 0x2db48(%rip),%ymm7 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,61,213,2,0 // vbroadcastss 0x2d53d(%rip),%ymm7 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,169,218,2,0 // vbroadcastss 0x2daa9(%rip),%ymm7 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja b4c1 <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja b815 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b5b0 <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b904 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq b4c1 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq b815 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq b4c1 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq b815 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq b4c1 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq b815 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11222,23 +11387,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,48,212,2,0 // vpbroadcastd 0x2d430(%rip),%ymm0 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,156,217,2,0 // vpbroadcastd 0x2d99c(%rip),%ymm0 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,35,212,2,0 // vbroadcastss 0x2d423(%rip),%ymm1 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,143,217,2,0 // vbroadcastss 0x2d98f(%rip),%ymm1 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,26,212,2,0 // vpbroadcastd 0x2d41a(%rip),%ymm1 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,134,217,2,0 // vpbroadcastd 0x2d986(%rip),%ymm1 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,13,212,2,0 // vbroadcastss 0x2d40d(%rip),%ymm3 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,121,217,2,0 // vbroadcastss 0x2d979(%rip),%ymm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,4,212,2,0 // vpbroadcastd 0x2d404(%rip),%ymm3 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,112,217,2,0 // vpbroadcastd 0x2d970(%rip),%ymm3 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,247,211,2,0 // vbroadcastss 0x2d3f7(%rip),%ymm3 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,99,217,2,0 // vbroadcastss 0x2d963(%rip),%ymm3 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,88,211,2,0 // vbroadcastss 0x2d358(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,196,216,2,0 // vbroadcastss 0x2d8c4(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -11256,11 +11421,11 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,32,212,2,0 // vbroadcastss 0x2d420(%rip),%ymm8 # 38b58 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,5,140,217,2,0 // vbroadcastss 0x2d98c(%rip),%ymm8 # 39418 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,11,212,2,0 // vbroadcastss 0x2d40b(%rip),%ymm10 # 38b5c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,21,119,217,2,0 // vbroadcastss 0x2d977(%rip),%ymm10 # 3941c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -11271,7 +11436,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b78f <_sk_store_565_hsw+0x76>
+ .byte 117,10 // jne bae3 <_sk_store_565_hsw+0x76>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11279,22 +11444,22 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b78b <_sk_store_565_hsw+0x72>
+ .byte 119,236 // ja badf <_sk_store_565_hsw+0x72>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b7ec <_sk_store_565_hsw+0xd3>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # bb40 <_sk_store_565_hsw+0xd3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp b78b <_sk_store_565_hsw+0x72>
+ .byte 235,207 // jmp badf <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp b78b <_sk_store_565_hsw+0x72>
+ .byte 235,191 // jmp badf <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp b78b <_sk_store_565_hsw+0x72>
+ .byte 235,159 // jmp badf <_sk_store_565_hsw+0x72>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -11312,7 +11477,7 @@ _sk_store_565_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100b804 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd304c>
+ .byte 232,255,255,255,224 // callq ffffffffe100bb58 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd2ae0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -11329,28 +11494,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b8b1 <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne bc05 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,37,211,2,0 // vpbroadcastd 0x2d325(%rip),%ymm0 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,145,216,2,0 // vpbroadcastd 0x2d891(%rip),%ymm0 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,24,211,2,0 // vbroadcastss 0x2d318(%rip),%ymm1 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,132,216,2,0 // vbroadcastss 0x2d884(%rip),%ymm1 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,15,211,2,0 // vpbroadcastd 0x2d30f(%rip),%ymm1 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,123,216,2,0 // vpbroadcastd 0x2d87b(%rip),%ymm1 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,2,211,2,0 // vbroadcastss 0x2d302(%rip),%ymm2 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,110,216,2,0 // vbroadcastss 0x2d86e(%rip),%ymm2 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,249,210,2,0 // vpbroadcastd 0x2d2f9(%rip),%ymm2 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,101,216,2,0 // vpbroadcastd 0x2d865(%rip),%ymm2 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,236,210,2,0 // vbroadcastss 0x2d2ec(%rip),%ymm8 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,88,216,2,0 // vbroadcastss 0x2d858(%rip),%ymm8 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,226,210,2,0 // vpbroadcastd 0x2d2e2(%rip),%ymm8 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,78,216,2,0 // vpbroadcastd 0x2d84e(%rip),%ymm8 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,212,210,2,0 // vbroadcastss 0x2d2d4(%rip),%ymm8 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,64,216,2,0 // vbroadcastss 0x2d840(%rip),%ymm8 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11359,27 +11524,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b82d <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja bb81 <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b938 <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # bc8c <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq b82d <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq bb81 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq b82d <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq bb81 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq b82d <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq bb81 <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11415,28 +11580,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b9fd <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne bd51 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,217,209,2,0 // vpbroadcastd 0x2d1d9(%rip),%ymm4 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,37,69,215,2,0 // vpbroadcastd 0x2d745(%rip),%ymm4 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,204,209,2,0 // vbroadcastss 0x2d1cc(%rip),%ymm5 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,56,215,2,0 // vbroadcastss 0x2d738(%rip),%ymm5 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,195,209,2,0 // vpbroadcastd 0x2d1c3(%rip),%ymm5 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,45,47,215,2,0 // vpbroadcastd 0x2d72f(%rip),%ymm5 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,182,209,2,0 // vbroadcastss 0x2d1b6(%rip),%ymm6 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,34,215,2,0 // vbroadcastss 0x2d722(%rip),%ymm6 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,173,209,2,0 // vpbroadcastd 0x2d1ad(%rip),%ymm6 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,53,25,215,2,0 // vpbroadcastd 0x2d719(%rip),%ymm6 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,160,209,2,0 // vbroadcastss 0x2d1a0(%rip),%ymm8 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,12,215,2,0 // vbroadcastss 0x2d70c(%rip),%ymm8 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,150,209,2,0 // vpbroadcastd 0x2d196(%rip),%ymm8 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,2,215,2,0 // vpbroadcastd 0x2d702(%rip),%ymm8 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,136,209,2,0 // vbroadcastss 0x2d188(%rip),%ymm8 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,244,214,2,0 // vbroadcastss 0x2d6f4(%rip),%ymm8 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11445,27 +11610,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b979 <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja bccd <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # ba84 <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # bdd8 <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq b979 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq bccd <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq b979 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq bccd <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq b979 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq bccd <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11544,25 +11709,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,216,207,2,0 // vpbroadcastd 0x2cfd8(%rip),%ymm0 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,68,213,2,0 // vpbroadcastd 0x2d544(%rip),%ymm0 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,203,207,2,0 // vbroadcastss 0x2cfcb(%rip),%ymm1 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,55,213,2,0 // vbroadcastss 0x2d537(%rip),%ymm1 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,194,207,2,0 // vpbroadcastd 0x2cfc2(%rip),%ymm1 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,46,213,2,0 // vpbroadcastd 0x2d52e(%rip),%ymm1 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,181,207,2,0 // vbroadcastss 0x2cfb5(%rip),%ymm2 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,33,213,2,0 // vbroadcastss 0x2d521(%rip),%ymm2 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,172,207,2,0 // vpbroadcastd 0x2cfac(%rip),%ymm2 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,24,213,2,0 // vpbroadcastd 0x2d518(%rip),%ymm2 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,159,207,2,0 // vbroadcastss 0x2cf9f(%rip),%ymm8 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,11,213,2,0 // vbroadcastss 0x2d50b(%rip),%ymm8 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,149,207,2,0 // vpbroadcastd 0x2cf95(%rip),%ymm8 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,1,213,2,0 // vpbroadcastd 0x2d501(%rip),%ymm8 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,135,207,2,0 // vbroadcastss 0x2cf87(%rip),%ymm8 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,243,212,2,0 // vbroadcastss 0x2d4f3(%rip),%ymm8 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -11582,7 +11747,7 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,92,207,2,0 // vbroadcastss 0x2cf5c(%rip),%ymm8 # 38b80 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,5,200,212,2,0 // vbroadcastss 0x2d4c8(%rip),%ymm8 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -11600,7 +11765,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bc87 <_sk_store_4444_hsw+0x82>
+ .byte 117,10 // jne bfdb <_sk_store_4444_hsw+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11608,22 +11773,22 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bc83 <_sk_store_4444_hsw+0x7e>
+ .byte 119,236 // ja bfd7 <_sk_store_4444_hsw+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # bce4 <_sk_store_4444_hsw+0xdf>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # c038 <_sk_store_4444_hsw+0xdf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp bc83 <_sk_store_4444_hsw+0x7e>
+ .byte 235,207 // jmp bfd7 <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp bc83 <_sk_store_4444_hsw+0x7e>
+ .byte 235,191 // jmp bfd7 <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp bc83 <_sk_store_4444_hsw+0x7e>
+ .byte 235,159 // jmp bfd7 <_sk_store_4444_hsw+0x7e>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -11641,7 +11806,7 @@ _sk_store_4444_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100bcfc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd3544>
+ .byte 232,255,255,255,224 // callq ffffffffe100c050 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd2fd8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -11658,16 +11823,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne bd72 <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne c0c6 <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,86,208,2,0 // vpand 0x2d056(%rip),%ymm3,%ymm0 # 38d80 <_sk_srcover_bgra_8888_sse2_lowp+0x5c8>
+ .byte 197,229,219,5,194,213,2,0 // vpand 0x2d5c2(%rip),%ymm3,%ymm0 # 39640 <_sk_srcover_bgra_8888_sse2_lowp+0x5c8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,169,205,2,0 // vbroadcastss 0x2cda9(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,21,211,2,0 // vbroadcastss 0x2d315(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,91,208,2,0 // vpshufb 0x2d05b(%rip),%ymm3,%ymm1 # 38da0 <_sk_srcover_bgra_8888_sse2_lowp+0x5e8>
+ .byte 196,226,101,0,13,199,213,2,0 // vpshufb 0x2d5c7(%rip),%ymm3,%ymm1 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0x5e8>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,105,208,2,0 // vpshufb 0x2d069(%rip),%ymm3,%ymm2 # 38dc0 <_sk_srcover_bgra_8888_sse2_lowp+0x608>
+ .byte 196,226,101,0,21,213,213,2,0 // vpshufb 0x2d5d5(%rip),%ymm3,%ymm2 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0x608>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -11680,21 +11845,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja bd22 <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja c076 <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # be18 <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c16c <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp bd22 <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp c076 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq bd22 <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c076 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -11707,7 +11872,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq bd22 <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c076 <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -11741,16 +11906,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne bea6 <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne c1fa <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,130,207,2,0 // vpand 0x2cf82(%rip),%ymm7,%ymm4 # 38de0 <_sk_srcover_bgra_8888_sse2_lowp+0x628>
+ .byte 197,197,219,37,238,212,2,0 // vpand 0x2d4ee(%rip),%ymm7,%ymm4 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0x628>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,117,204,2,0 // vbroadcastss 0x2cc75(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,225,209,2,0 // vbroadcastss 0x2d1e1(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,135,207,2,0 // vpshufb 0x2cf87(%rip),%ymm7,%ymm5 # 38e00 <_sk_srcover_bgra_8888_sse2_lowp+0x648>
+ .byte 196,226,69,0,45,243,212,2,0 // vpshufb 0x2d4f3(%rip),%ymm7,%ymm5 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0x648>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,149,207,2,0 // vpshufb 0x2cf95(%rip),%ymm7,%ymm6 # 38e20 <_sk_srcover_bgra_8888_sse2_lowp+0x668>
+ .byte 196,226,69,0,53,1,213,2,0 // vpshufb 0x2d501(%rip),%ymm7,%ymm6 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0x668>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -11763,21 +11928,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja be56 <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja c1aa <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bf4c <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c2a0 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp be56 <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp c1aa <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq be56 <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c1aa <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -11790,7 +11955,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq be56 <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c1aa <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -11834,14 +11999,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,129,206,2,0 // vpand 0x2ce81(%rip),%ymm8,%ymm0 # 38e40 <_sk_srcover_bgra_8888_sse2_lowp+0x688>
+ .byte 197,189,219,5,237,211,2,0 // vpand 0x2d3ed(%rip),%ymm8,%ymm0 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0x688>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,20,203,2,0 // vbroadcastss 0x2cb14(%rip),%ymm3 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,128,208,2,0 // vbroadcastss 0x2d080(%rip),%ymm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,135,206,2,0 // vpshufb 0x2ce87(%rip),%ymm8,%ymm1 # 38e60 <_sk_srcover_bgra_8888_sse2_lowp+0x6a8>
+ .byte 196,226,61,0,13,243,211,2,0 // vpshufb 0x2d3f3(%rip),%ymm8,%ymm1 # 39720 <_sk_srcover_bgra_8888_sse2_lowp+0x6a8>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,150,206,2,0 // vpshufb 0x2ce96(%rip),%ymm8,%ymm2 # 38e80 <_sk_srcover_bgra_8888_sse2_lowp+0x6c8>
+ .byte 196,226,61,0,21,2,212,2,0 // vpshufb 0x2d402(%rip),%ymm8,%ymm2 # 39740 <_sk_srcover_bgra_8888_sse2_lowp+0x6c8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -11861,7 +12026,7 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,111,202,2,0 // vbroadcastss 0x2ca6f(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,219,207,2,0 // vbroadcastss 0x2cfdb(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -11877,7 +12042,7 @@ _sk_store_8888_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c07d <_sk_store_8888_hsw+0x78>
+ .byte 117,10 // jne c3d1 <_sk_store_8888_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11885,17 +12050,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c079 <_sk_store_8888_hsw+0x74>
+ .byte 119,236 // ja c3cd <_sk_store_8888_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c0ec <_sk_store_8888_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c440 <_sk_store_8888_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp c079 <_sk_store_8888_hsw+0x74>
+ .byte 235,208 // jmp c3cd <_sk_store_8888_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp c079 <_sk_store_8888_hsw+0x74>
+ .byte 235,192 // jmp c3cd <_sk_store_8888_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -11903,7 +12068,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp c079 <_sk_store_8888_hsw+0x74>
+ .byte 235,143 // jmp c3cd <_sk_store_8888_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -11915,7 +12080,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00c100 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd3948>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00c454 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd33dc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -11935,16 +12100,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c17a <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne c4ce <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,110,205,2,0 // vpand 0x2cd6e(%rip),%ymm3,%ymm0 # 38ea0 <_sk_srcover_bgra_8888_sse2_lowp+0x6e8>
+ .byte 197,229,219,5,218,210,2,0 // vpand 0x2d2da(%rip),%ymm3,%ymm0 # 39760 <_sk_srcover_bgra_8888_sse2_lowp+0x6e8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,161,201,2,0 // vbroadcastss 0x2c9a1(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,13,207,2,0 // vbroadcastss 0x2cf0d(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,115,205,2,0 // vpshufb 0x2cd73(%rip),%ymm3,%ymm0 # 38ec0 <_sk_srcover_bgra_8888_sse2_lowp+0x708>
+ .byte 196,226,101,0,5,223,210,2,0 // vpshufb 0x2d2df(%rip),%ymm3,%ymm0 # 39780 <_sk_srcover_bgra_8888_sse2_lowp+0x708>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,129,205,2,0 // vpshufb 0x2cd81(%rip),%ymm3,%ymm0 # 38ee0 <_sk_srcover_bgra_8888_sse2_lowp+0x728>
+ .byte 196,226,101,0,5,237,210,2,0 // vpshufb 0x2d2ed(%rip),%ymm3,%ymm0 # 397a0 <_sk_srcover_bgra_8888_sse2_lowp+0x728>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -11957,21 +12122,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c12a <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja c47e <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c220 <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c574 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp c12a <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp c47e <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq c12a <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c47e <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -11984,7 +12149,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq c12a <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c47e <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12018,16 +12183,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c2ae <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne c602 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,154,204,2,0 // vpand 0x2cc9a(%rip),%ymm7,%ymm4 # 38f00 <_sk_srcover_bgra_8888_sse2_lowp+0x748>
+ .byte 197,197,219,37,6,210,2,0 // vpand 0x2d206(%rip),%ymm7,%ymm4 # 397c0 <_sk_srcover_bgra_8888_sse2_lowp+0x748>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,109,200,2,0 // vbroadcastss 0x2c86d(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,217,205,2,0 // vbroadcastss 0x2cdd9(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,159,204,2,0 // vpshufb 0x2cc9f(%rip),%ymm7,%ymm4 # 38f20 <_sk_srcover_bgra_8888_sse2_lowp+0x768>
+ .byte 196,226,69,0,37,11,210,2,0 // vpshufb 0x2d20b(%rip),%ymm7,%ymm4 # 397e0 <_sk_srcover_bgra_8888_sse2_lowp+0x768>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,173,204,2,0 // vpshufb 0x2ccad(%rip),%ymm7,%ymm4 # 38f40 <_sk_srcover_bgra_8888_sse2_lowp+0x788>
+ .byte 196,226,69,0,37,25,210,2,0 // vpshufb 0x2d219(%rip),%ymm7,%ymm4 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x788>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12040,21 +12205,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c25e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja c5b2 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c354 <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c6a8 <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp c25e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp c5b2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq c25e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c5b2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12067,7 +12232,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq c25e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c5b2 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12111,14 +12276,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,153,203,2,0 // vpand 0x2cb99(%rip),%ymm8,%ymm0 # 38f60 <_sk_srcover_bgra_8888_sse2_lowp+0x7a8>
+ .byte 197,189,219,5,5,209,2,0 // vpand 0x2d105(%rip),%ymm8,%ymm0 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x7a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,12,199,2,0 // vbroadcastss 0x2c70c(%rip),%ymm3 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,120,204,2,0 // vbroadcastss 0x2cc78(%rip),%ymm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,159,203,2,0 // vpshufb 0x2cb9f(%rip),%ymm8,%ymm0 # 38f80 <_sk_srcover_bgra_8888_sse2_lowp+0x7c8>
+ .byte 196,226,61,0,5,11,209,2,0 // vpshufb 0x2d10b(%rip),%ymm8,%ymm0 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x7c8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,174,203,2,0 // vpshufb 0x2cbae(%rip),%ymm8,%ymm0 # 38fa0 <_sk_srcover_bgra_8888_sse2_lowp+0x7e8>
+ .byte 196,226,61,0,5,26,209,2,0 // vpshufb 0x2d11a(%rip),%ymm8,%ymm0 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x7e8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12138,7 +12303,7 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,103,198,2,0 // vbroadcastss 0x2c667(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,211,203,2,0 // vbroadcastss 0x2cbd3(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -12154,7 +12319,7 @@ _sk_store_bgra_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c485 <_sk_store_bgra_hsw+0x78>
+ .byte 117,10 // jne c7d9 <_sk_store_bgra_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12162,17 +12327,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c481 <_sk_store_bgra_hsw+0x74>
+ .byte 119,236 // ja c7d5 <_sk_store_bgra_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c4f4 <_sk_store_bgra_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c848 <_sk_store_bgra_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp c481 <_sk_store_bgra_hsw+0x74>
+ .byte 235,208 // jmp c7d5 <_sk_store_bgra_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp c481 <_sk_store_bgra_hsw+0x74>
+ .byte 235,192 // jmp c7d5 <_sk_store_bgra_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12180,7 +12345,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp c481 <_sk_store_bgra_hsw+0x74>
+ .byte 235,143 // jmp c7d5 <_sk_store_bgra_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -12192,7 +12357,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00c508 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd3d50>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00c85c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd37e4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -12212,7 +12377,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c591 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne c8e5 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -12238,29 +12403,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c5f7 <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je c94b <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c5f7 <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb c94b <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c604 <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je c958 <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c604 <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb c958 <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c547 <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c89b <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c547 <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c89b <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c547 <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c89b <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq c547 <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c89b <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq c547 <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c89b <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -12274,7 +12439,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c68e <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne c9e2 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -12300,29 +12465,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c6f4 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je ca48 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c6f4 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb ca48 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c701 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je ca55 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c701 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb ca55 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c644 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c998 <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c644 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c998 <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c644 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c998 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq c644 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c998 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq c644 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c998 <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -12395,7 +12560,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne c83e <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne cb92 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -12404,22 +12569,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je c83a <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je cb8e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb c83a <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb cb8e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je c83a <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je cb8e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb c83a <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb cb8e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je c83a <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je cb8e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb c83a <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb cb8e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp c83a <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp cb8e <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -12434,7 +12599,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne c97f <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne ccd3 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -12453,7 +12618,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,232,193,2,0 // vbroadcastss 0x2c1e8(%rip),%ymm10 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,84,199,2,0 // vbroadcastss 0x2c754(%rip),%ymm10 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -12481,29 +12646,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c9e5 <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je cd39 <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c9e5 <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb cd39 <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c9f2 <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je cd46 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c9f2 <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb cd46 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je c8ce <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je cc22 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb c8ce <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb cc22 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq c8ce <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq cc22 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq c8ce <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq cc22 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq c8ce <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq cc22 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -12520,7 +12685,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne caf3 <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne ce47 <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -12545,7 +12710,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,87,192,2,0 // vbroadcastss 0x2c057(%rip),%ymm9 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,195,197,2,0 // vbroadcastss 0x2c5c3(%rip),%ymm9 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -12561,69 +12726,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,119,191,2,0 // vbroadcastss 0x2bf77(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,227,196,2,0 // vbroadcastss 0x2c4e3(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne cb2b <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne ce7f <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq ca5b <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq cdaf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb cb75 <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb cec9 <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne cb8f <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne cee3 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq ca5b <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq cdaf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq ca5b <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq cdaf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb cbd0 <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb cf24 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne cbe1 <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne cf35 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq ca5b <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq cdaf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq ca5b <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq cdaf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb cc14 <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb cf68 <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq ca5b <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq cdaf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq ca5b <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq cdaf <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -12637,7 +12802,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,64,191,2,0 // vbroadcastss 0x2bf40(%rip),%ymm8 # 38b84 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,5,172,196,2,0 // vbroadcastss 0x2c4ac(%rip),%ymm8 # 39444 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -12675,7 +12840,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne cd28 <_sk_store_u16_be_hsw+0x10b>
+ .byte 117,31 // jne d07c <_sk_store_u16_be_hsw+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -12684,22 +12849,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je cd24 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,240 // je d078 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb cd24 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,227 // jb d078 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je cd24 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,218 // je d078 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb cd24 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,205 // jb d078 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je cd24 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,196 // je d078 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb cd24 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,183 // jb d078 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp cd24 <_sk_store_u16_be_hsw+0x107>
+ .byte 235,174 // jmp d078 <_sk_store_u16_be_hsw+0x107>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -12708,7 +12873,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja cee7 <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja d23b <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -12721,7 +12886,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # cef8 <_sk_load_f32_hsw+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # d24c <_sk_load_f32_hsw+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -12784,7 +12949,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp cec1 <_sk_load_f32_hsw+0x14b>
+ .byte 235,203 // jmp d215 <_sk_load_f32_hsw+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -12796,7 +12961,7 @@ _sk_load_f32_hsw:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900cf14 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd475c>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900d268 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd41f0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -12808,7 +12973,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja d089 <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja d3dd <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -12821,7 +12986,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d098 <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d3ec <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -12884,7 +13049,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp d063 <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp d3b7 <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12924,7 +13089,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne d137 <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne d48b <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -12937,22 +13102,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d133 <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je d487 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d133 <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb d487 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je d133 <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je d487 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d133 <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb d487 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je d133 <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je d487 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb d133 <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb d487 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp d133 <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp d487 <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -12991,7 +13156,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,117,184,2,0 // vmulss 0x2b875(%rip),%xmm9,%xmm0 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,225,189,2,0 // vmulss 0x2bde1(%rip),%xmm9,%xmm0 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -13014,7 +13179,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,36,184,2,0 // vmulss 0x2b824(%rip),%xmm9,%xmm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,144,189,2,0 // vmulss 0x2bd90(%rip),%xmm9,%xmm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -13032,7 +13197,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,236,183,2,0 // vbroadcastss 0x2b7ec(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,88,189,2,0 // vbroadcastss 0x2bd58(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13045,7 +13210,7 @@ _sk_repeat_x_1_hsw:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,198,183,2,0 // vbroadcastss 0x2b7c6(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,50,189,2,0 // vbroadcastss 0x2bd32(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13054,9 +13219,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,204,183,2,0 // vbroadcastss 0x2b7cc(%rip),%ymm8 # 38a80 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,56,189,2,0 // vbroadcastss 0x2bd38(%rip),%ymm8 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,162,183,2,0 // vbroadcastss 0x2b7a2(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,14,189,2,0 // vbroadcastss 0x2bd0e(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -13066,7 +13231,7 @@ _sk_mirror_x_1_hsw:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,114,183,2,0 // vbroadcastss 0x2b772(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,222,188,2,0 // vbroadcastss 0x2bcde(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13075,11 +13240,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,132,184,2,0 // vbroadcastss 0x2b884(%rip),%ymm3 # 38b8c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,98,125,24,5,119,184,2,0 // vbroadcastss 0x2b877(%rip),%ymm8 # 38b88 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,240,189,2,0 // vbroadcastss 0x2bdf0(%rip),%ymm3 # 3944c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,98,125,24,5,227,189,2,0 // vbroadcastss 0x2bde3(%rip),%ymm8 # 39448 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,108,184,2,0 // vbroadcastss 0x2b86c(%rip),%ymm3 # 38b90 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,29,216,189,2,0 // vbroadcastss 0x2bdd8(%rip),%ymm3 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -13278,9 +13443,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js d61c <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js d970 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp d632 <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp d986 <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -13291,7 +13456,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja d68e <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja d9e2 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -13307,7 +13472,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq d721 <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq da75 <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -13354,11 +13519,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe d828 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe db7c <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,9,179,2,0 // vbroadcastss 0x2b309(%rip),%ymm2 # 38a6c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,117,184,2,0 // vbroadcastss 0x2b875(%rip),%ymm2 # 3932c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -13366,10 +13531,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne d768 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne dabc <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe d831 <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe db85 <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -13401,7 +13566,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp d875 <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp dbc9 <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -13461,24 +13626,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,132,178,2,0 // vbroadcastss 0x2b284(%rip),%ymm13 # 38b94 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,127,178,2,0 // vbroadcastss 0x2b27f(%rip),%ymm14 # 38b98 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,45,240,183,2,0 // vbroadcastss 0x2b7f0(%rip),%ymm13 # 39454 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,235,183,2,0 // vbroadcastss 0x2b7eb(%rip),%ymm14 # 39458 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,117,178,2,0 // vbroadcastss 0x2b275(%rip),%ymm13 # 38b9c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,45,225,183,2,0 // vbroadcastss 0x2b7e1(%rip),%ymm13 # 3945c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,107,178,2,0 // vbroadcastss 0x2b26b(%rip),%ymm14 # 38ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,215,183,2,0 // vbroadcastss 0x2b7d7(%rip),%ymm14 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,86,178,2,0 // vbroadcastss 0x2b256(%rip),%ymm10 # 38ba4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,194,183,2,0 // vbroadcastss 0x2b7c2(%rip),%ymm10 # 39464 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,252,176,2,0 // vbroadcastss 0x2b0fc(%rip),%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,104,182,2,0 // vbroadcastss 0x2b668(%rip),%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,230,176,2,0 // vbroadcastss 0x2b0e6(%rip),%ymm10 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,82,182,2,0 // vbroadcastss 0x2b652(%rip),%ymm10 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -13506,21 +13671,21 @@ _sk_xy_to_2pt_conical_quadratic_first_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,214,177,2,0 // vbroadcastss 0x2b1d6(%rip),%ymm11 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,66,183,2,0 // vbroadcastss 0x2b742(%rip),%ymm11 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,181,177,2,0 // vbroadcastss 0x2b1b5(%rip),%ymm9 # 38bac <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,33,183,2,0 // vbroadcastss 0x2b721(%rip),%ymm9 # 3946c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,71,176,2,0 // vbroadcastss 0x2b047(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,179,181,2,0 // vbroadcastss 0x2b5b3(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13536,23 +13701,23 @@ _sk_xy_to_2pt_conical_quadratic_second_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,89,177,2,0 // vbroadcastss 0x2b159(%rip),%ymm11 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,197,182,2,0 // vbroadcastss 0x2b6c5(%rip),%ymm11 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,56,177,2,0 // vbroadcastss 0x2b138(%rip),%ymm9 # 38bac <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,164,182,2,0 // vbroadcastss 0x2b6a4(%rip),%ymm9 # 3946c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,27,177,2,0 // vbroadcastss 0x2b11b(%rip),%ymm9 # 38bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,135,182,2,0 // vbroadcastss 0x2b687(%rip),%ymm9 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,189,175,2,0 // vbroadcastss 0x2afbd(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,41,181,2,0 // vbroadcastss 0x2b529(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13567,14 +13732,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,213,176,2,0 // vbroadcastss 0x2b0d5(%rip),%ymm10 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,65,182,2,0 // vbroadcastss 0x2b641(%rip),%ymm10 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,184,176,2,0 // vbroadcastss 0x2b0b8(%rip),%ymm8 # 38bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,36,182,2,0 // vbroadcastss 0x2b624(%rip),%ymm8 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13617,7 +13782,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,247,174,2,0 // vbroadcastss 0x2aef7(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,99,180,2,0 // vbroadcastss 0x2b463(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -13651,9 +13816,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,209,175,2,0 // vbroadcastss 0x2afd1(%rip),%ymm0 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,61,181,2,0 // vbroadcastss 0x2b53d(%rip),%ymm0 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,120,174,2,0 // vbroadcastss 0x2ae78(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,228,179,2,0 // vbroadcastss 0x2b3e4(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13664,7 +13829,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,85,174,2,0 // vbroadcastss 0x2ae55(%rip),%ymm0 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,193,179,2,0 // vbroadcastss 0x2b3c1(%rip),%ymm0 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -13676,9 +13841,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,130,175,2,0 // vbroadcastss 0x2af82(%rip),%ymm1 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,238,180,2,0 // vbroadcastss 0x2b4ee(%rip),%ymm1 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,40,174,2,0 // vbroadcastss 0x2ae28(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,148,179,2,0 // vbroadcastss 0x2b394(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13689,7 +13854,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,5,174,2,0 // vbroadcastss 0x2ae05(%rip),%ymm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,113,179,2,0 // vbroadcastss 0x2b371(%rip),%ymm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -13701,13 +13866,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,53,175,2,0 // vbroadcastss 0x2af35(%rip),%ymm0 # 38bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,161,180,2,0 // vbroadcastss 0x2b4a1(%rip),%ymm0 # 39478 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,216,173,2,0 // vbroadcastss 0x2add8(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,68,179,2,0 // vbroadcastss 0x2b344(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,54,174,2,0 // vbroadcastss 0x2ae36(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,13,175,2,0 // vbroadcastss 0x2af0d(%rip),%ymm11 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,162,179,2,0 // vbroadcastss 0x2b3a2(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,121,180,2,0 // vbroadcastss 0x2b479(%rip),%ymm11 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -13719,16 +13884,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,228,174,2,0 // vbroadcastss 0x2aee4(%rip),%ymm0 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,80,180,2,0 // vbroadcastss 0x2b450(%rip),%ymm0 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,139,173,2,0 // vbroadcastss 0x2ad8b(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,247,178,2,0 // vbroadcastss 0x2b2f7(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,214,174,2,0 // vbroadcastss 0x2aed6(%rip),%ymm9 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,201,174,2,0 // vbroadcastss 0x2aec9(%rip),%ymm10 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,66,180,2,0 // vbroadcastss 0x2b442(%rip),%ymm9 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,53,180,2,0 // vbroadcastss 0x2b435(%rip),%ymm10 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,95,173,2,0 // vbroadcastss 0x2ad5f(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,203,178,2,0 // vbroadcastss 0x2b2cb(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,181,174,2,0 // vbroadcastss 0x2aeb5(%rip),%ymm10 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,33,180,2,0 // vbroadcastss 0x2b421(%rip),%ymm10 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13739,14 +13904,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,53,173,2,0 // vbroadcastss 0x2ad35(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,161,178,2,0 // vbroadcastss 0x2b2a1(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,128,174,2,0 // vbroadcastss 0x2ae80(%rip),%ymm10 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,115,174,2,0 // vbroadcastss 0x2ae73(%rip),%ymm11 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,236,179,2,0 // vbroadcastss 0x2b3ec(%rip),%ymm10 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,223,179,2,0 // vbroadcastss 0x2b3df(%rip),%ymm11 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,104,174,2,0 // vbroadcastss 0x2ae68(%rip),%ymm8 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,212,179,2,0 // vbroadcastss 0x2b3d4(%rip),%ymm8 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13757,12 +13922,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,72,174,2,0 // vbroadcastss 0x2ae48(%rip),%ymm0 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,180,179,2,0 // vbroadcastss 0x2b3b4(%rip),%ymm0 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,70,173,2,0 // vbroadcastss 0x2ad46(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,29,174,2,0 // vbroadcastss 0x2ae1d(%rip),%ymm11 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,178,178,2,0 // vbroadcastss 0x2b2b2(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,137,179,2,0 // vbroadcastss 0x2b389(%rip),%ymm11 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -13774,13 +13939,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,248,173,2,0 // vbroadcastss 0x2adf8(%rip),%ymm1 # 38bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,100,179,2,0 // vbroadcastss 0x2b364(%rip),%ymm1 # 39478 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,154,172,2,0 // vbroadcastss 0x2ac9a(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,6,178,2,0 // vbroadcastss 0x2b206(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,248,172,2,0 // vbroadcastss 0x2acf8(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,207,173,2,0 // vbroadcastss 0x2adcf(%rip),%ymm11 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,100,178,2,0 // vbroadcastss 0x2b264(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,59,179,2,0 // vbroadcastss 0x2b33b(%rip),%ymm11 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -13792,16 +13957,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,166,173,2,0 // vbroadcastss 0x2ada6(%rip),%ymm1 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,18,179,2,0 // vbroadcastss 0x2b312(%rip),%ymm1 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,76,172,2,0 // vbroadcastss 0x2ac4c(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,184,177,2,0 // vbroadcastss 0x2b1b8(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,151,173,2,0 // vbroadcastss 0x2ad97(%rip),%ymm9 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,138,173,2,0 // vbroadcastss 0x2ad8a(%rip),%ymm10 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,3,179,2,0 // vbroadcastss 0x2b303(%rip),%ymm9 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,246,178,2,0 // vbroadcastss 0x2b2f6(%rip),%ymm10 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,32,172,2,0 // vbroadcastss 0x2ac20(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,140,177,2,0 // vbroadcastss 0x2b18c(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,118,173,2,0 // vbroadcastss 0x2ad76(%rip),%ymm10 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,226,178,2,0 // vbroadcastss 0x2b2e2(%rip),%ymm10 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13812,14 +13977,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,246,171,2,0 // vbroadcastss 0x2abf6(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,98,177,2,0 // vbroadcastss 0x2b162(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,64,173,2,0 // vbroadcastss 0x2ad40(%rip),%ymm10 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,51,173,2,0 // vbroadcastss 0x2ad33(%rip),%ymm11 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,172,178,2,0 // vbroadcastss 0x2b2ac(%rip),%ymm10 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,159,178,2,0 // vbroadcastss 0x2b29f(%rip),%ymm11 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,40,173,2,0 // vbroadcastss 0x2ad28(%rip),%ymm8 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,148,178,2,0 // vbroadcastss 0x2b294(%rip),%ymm8 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13830,12 +13995,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,8,173,2,0 // vbroadcastss 0x2ad08(%rip),%ymm1 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,116,178,2,0 // vbroadcastss 0x2b274(%rip),%ymm1 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,5,172,2,0 // vbroadcastss 0x2ac05(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,220,172,2,0 // vbroadcastss 0x2acdc(%rip),%ymm11 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,113,177,2,0 // vbroadcastss 0x2b171(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,72,178,2,0 // vbroadcastss 0x2b248(%rip),%ymm11 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -13975,7 +14140,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,158,170,2,0 // vpbroadcastd 0x2aa9e(%rip),%ymm15 # 38bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,61,10,176,2,0 // vpbroadcastd 0x2b00a(%rip),%ymm15 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -13987,13 +14152,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,252,168,2,0 // vpbroadcastd 0x2a8fc(%rip),%ymm7 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,226,125,88,61,104,174,2,0 // vpbroadcastd 0x2ae68(%rip),%ymm7 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,48,170,2,0 // vbroadcastss 0x2aa30(%rip),%ymm0 # 38bcc <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,156,175,2,0 // vbroadcastss 0x2af9c(%rip),%ymm0 # 3948c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -14255,7 +14420,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,201,164,2,0 // vpbroadcastd 0x2a4c9(%rip),%ymm10 # 38bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,21,53,170,2,0 // vpbroadcastd 0x2aa35(%rip),%ymm10 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -14267,13 +14432,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,36,163,2,0 // vpbroadcastd 0x2a324(%rip),%ymm11 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,29,144,168,2,0 // vpbroadcastd 0x2a890(%rip),%ymm11 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,89,164,2,0 // vbroadcastss 0x2a459(%rip),%ymm0 # 38bcc <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,197,169,2,0 // vbroadcastss 0x2a9c5(%rip),%ymm0 # 3948c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -14706,7 +14871,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,71,153,2,0 // vbroadcastss 0x29947(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,179,158,2,0 // vbroadcastss 0x29eb3(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -14718,14 +14883,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,129,154,2,0 // vbroadcastss 0x29a81(%rip),%ymm0 # 38bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,226,125,24,13,116,154,2,0 // vbroadcastss 0x29a74(%rip),%ymm1 # 38bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,237,159,2,0 // vbroadcastss 0x29fed(%rip),%ymm0 # 39498 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,224,159,2,0 // vbroadcastss 0x29fe0(%rip),%ymm1 # 39494 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,110,154,2,0 // vbroadcastss 0x29a6e(%rip),%ymm0 # 38bdc <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,5,218,159,2,0 // vbroadcastss 0x29fda(%rip),%ymm0 # 3949c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,100,154,2,0 // vbroadcastss 0x29a64(%rip),%ymm1 # 38be0 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,208,159,2,0 // vbroadcastss 0x29fd0(%rip),%ymm1 # 394a0 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,90,154,2,0 // vbroadcastss 0x29a5a(%rip),%ymm0 # 38be4 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,198,159,2,0 // vbroadcastss 0x29fc6(%rip),%ymm0 # 394a4 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -14755,13 +14920,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae f26a <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae f5be <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja f22c <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja f580 <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -14780,10 +14945,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe f1ed <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe f541 <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je f25d <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je f5b1 <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -14797,7 +14962,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne f1df <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne f533 <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -14828,10 +14993,10 @@ _sk_seed_shader_avx:
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,178,151,2,0 // vbroadcastss 0x297b2(%rip),%ymm2 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,30,157,2,0 // vbroadcastss 0x29d1e(%rip),%ymm2 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,167,151,2,0 // vbroadcastss 0x297a7(%rip),%ymm2 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,19,157,2,0 // vbroadcastss 0x29d13(%rip),%ymm2 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -14845,46 +15010,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,151,160,2,0 // vpaddd 0x2a097(%rip),%xmm8,%xmm9 # 39380 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
- .byte 197,57,254,5,159,160,2,0 // vpaddd 0x2a09f(%rip),%xmm8,%xmm8 # 39390 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 197,57,254,13,3,166,2,0 // vpaddd 0x2a603(%rip),%xmm8,%xmm9 # 39c40 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
+ .byte 197,57,254,5,11,166,2,0 // vpaddd 0x2a60b(%rip),%xmm8,%xmm8 # 39c50 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,87,151,2,0 // vbroadcastss 0x29757(%rip),%ymm10 # 38a6c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,195,156,2,0 // vbroadcastss 0x29cc3(%rip),%ymm10 # 3932c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,150,168,2,0 // vmovddup 0x2a896(%rip),%xmm12 # 39bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
+ .byte 197,123,18,37,2,174,2,0 // vmovddup 0x2ae02(%rip),%xmm12 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,21,151,2,0 // vbroadcastss 0x29715(%rip),%ymm13 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,24,45,129,156,2,0 // vbroadcastss 0x29c81(%rip),%ymm13 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,84,168,2,0 // vmovddup 0x2a854(%rip),%xmm14 # 39bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
+ .byte 197,123,18,53,192,173,2,0 // vmovddup 0x2adc0(%rip),%xmm14 # 3a498 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,196,150,2,0 // vbroadcastss 0x296c4(%rip),%ymm14 # 38a70 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,24,53,48,156,2,0 // vbroadcastss 0x29c30(%rip),%ymm14 # 39330 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,10,168,2,0 // vmovddup 0x2a80a(%rip),%xmm13 # 39be0 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
+ .byte 197,123,18,45,118,173,2,0 // vmovddup 0x2ad76(%rip),%xmm13 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -14895,9 +15060,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,103,150,2,0 // vbroadcastss 0x29667(%rip),%ymm9 # 38a78 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,13,211,155,2,0 // vbroadcastss 0x29bd3(%rip),%ymm9 # 39338 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,93,150,2,0 // vbroadcastss 0x2965d(%rip),%ymm9 # 38a7c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,201,155,2,0 // vbroadcastss 0x29bc9(%rip),%ymm9 # 3933c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -14931,7 +15096,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,229,149,2,0 // vbroadcastss 0x295e5(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,81,155,2,0 // vbroadcastss 0x29b51(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -14942,7 +15107,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,204,149,2,0 // vbroadcastss 0x295cc(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,56,155,2,0 // vbroadcastss 0x29b38(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -14988,7 +15153,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,107,149,2,0 // vbroadcastss 0x2956b(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,215,154,2,0 // vbroadcastss 0x29ad7(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15009,7 +15174,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,41,149,2,0 // vbroadcastss 0x29529(%rip),%ymm9 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,149,154,2,0 // vbroadcastss 0x29a95(%rip),%ymm9 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -15051,7 +15216,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,196,148,2,0 // vbroadcastss 0x294c4(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,48,154,2,0 // vbroadcastss 0x29a30(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -15064,7 +15229,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,163,148,2,0 // vbroadcastss 0x294a3(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,15,154,2,0 // vbroadcastss 0x29a0f(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -15077,7 +15242,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,130,148,2,0 // vbroadcastss 0x29482(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,238,153,2,0 // vbroadcastss 0x299ee(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15094,7 +15259,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,81,148,2,0 // vbroadcastss 0x29451(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,189,153,2,0 // vbroadcastss 0x299bd(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -15122,7 +15287,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,12,148,2,0 // vbroadcastss 0x2940c(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,120,153,2,0 // vbroadcastss 0x29978(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15153,7 +15318,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,155,147,2,0 // vbroadcastss 0x2939b(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,7,153,2,0 // vbroadcastss 0x29907(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -15187,7 +15352,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,58,147,2,0 // vbroadcastss 0x2933a(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,166,152,2,0 // vbroadcastss 0x298a6(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15224,7 +15389,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,182,146,2,0 // vbroadcastss 0x292b6(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,34,152,2,0 // vbroadcastss 0x29822(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15250,7 +15415,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,94,146,2,0 // vbroadcastss 0x2925e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,202,151,2,0 // vbroadcastss 0x297ca(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15279,7 +15444,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,250,145,2,0 // vbroadcastss 0x291fa(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,102,151,2,0 // vbroadcastss 0x29766(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15302,7 +15467,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,177,145,2,0 // vbroadcastss 0x291b1(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,29,151,2,0 // vbroadcastss 0x2971d(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15313,7 +15478,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,152,145,2,0 // vbroadcastss 0x29198(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,151,2,0 // vbroadcastss 0x29704(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -15375,7 +15540,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,156,144,2,0 // vbroadcastss 0x2909c(%rip),%ymm9 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,8,150,2,0 // vbroadcastss 0x29608(%rip),%ymm9 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -15432,7 +15597,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,167,143,2,0 // vbroadcastss 0x28fa7(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,19,149,2,0 // vbroadcastss 0x29513(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15487,7 +15652,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,204,142,2,0 // vbroadcastss 0x28ecc(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,56,148,2,0 // vbroadcastss 0x29438(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15553,10 +15718,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,211,141,2,0 // vbroadcastss 0x28dd3(%rip),%ymm11 # 38a80 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,63,147,2,0 // vbroadcastss 0x2933f(%rip),%ymm11 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,196,141,2,0 // vbroadcastss 0x28dc4(%rip),%ymm13 # 38a84 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,45,48,147,2,0 // vbroadcastss 0x29330(%rip),%ymm13 # 39344 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -15567,7 +15732,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,110,141,2,0 // vbroadcastss 0x28d6e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,218,146,2,0 // vbroadcastss 0x292da(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -15694,12 +15859,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,81,139,2,0 // vbroadcastss 0x28b51(%rip),%ymm14 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,189,144,2,0 // vbroadcastss 0x290bd(%rip),%ymm14 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,71,139,2,0 // vbroadcastss 0x28b47(%rip),%ymm15 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,179,144,2,0 // vbroadcastss 0x290b3(%rip),%ymm15 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,56,139,2,0 // vbroadcastss 0x28b38(%rip),%ymm0 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,164,144,2,0 // vbroadcastss 0x290a4(%rip),%ymm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -15760,7 +15925,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,229,137,2,0 // vbroadcastss 0x289e5(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,81,143,2,0 // vbroadcastss 0x28f51(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15817,12 +15982,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,15,137,2,0 // vbroadcastss 0x2890f(%rip),%ymm14 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,123,142,2,0 // vbroadcastss 0x28e7b(%rip),%ymm14 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,5,137,2,0 // vbroadcastss 0x28905(%rip),%ymm15 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,113,142,2,0 // vbroadcastss 0x28e71(%rip),%ymm15 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,246,136,2,0 // vbroadcastss 0x288f6(%rip),%ymm0 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,98,142,2,0 // vbroadcastss 0x28e62(%rip),%ymm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -15883,7 +16048,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,163,135,2,0 // vbroadcastss 0x287a3(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,15,141,2,0 // vbroadcastss 0x28d0f(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15912,12 +16077,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,85,135,2,0 // vbroadcastss 0x28755(%rip),%ymm13 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,193,140,2,0 // vbroadcastss 0x28cc1(%rip),%ymm13 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,75,135,2,0 // vbroadcastss 0x2874b(%rip),%ymm14 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,183,140,2,0 // vbroadcastss 0x28cb7(%rip),%ymm14 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,60,135,2,0 // vbroadcastss 0x2873c(%rip),%ymm15 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,168,140,2,0 // vbroadcastss 0x28ca8(%rip),%ymm15 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -15980,7 +16145,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,215,133,2,0 // vbroadcastss 0x285d7(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,67,139,2,0 // vbroadcastss 0x28b43(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16010,12 +16175,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,133,133,2,0 // vbroadcastss 0x28585(%rip),%ymm13 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,241,138,2,0 // vbroadcastss 0x28af1(%rip),%ymm13 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,123,133,2,0 // vbroadcastss 0x2857b(%rip),%ymm14 # 38a8c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,231,138,2,0 // vbroadcastss 0x28ae7(%rip),%ymm14 # 3934c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,108,133,2,0 // vbroadcastss 0x2856c(%rip),%ymm15 # 38a90 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,216,138,2,0 // vbroadcastss 0x28ad8(%rip),%ymm15 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16078,7 +16243,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,7,132,2,0 // vbroadcastss 0x28407(%rip),%ymm0 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,115,137,2,0 // vbroadcastss 0x28973(%rip),%ymm0 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16110,9 +16275,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 107f6 <_sk_srcover_rgba_8888_avx+0x14a>
+ .byte 15,133,42,1,0,0 // jne 10b4a <_sk_srcover_rgba_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,230,136,2,0 // vmovapd 0x288e6(%rip),%ymm9 # 38fc0 <_sk_srcover_bgra_8888_sse2_lowp+0x808>
+ .byte 197,125,40,13,82,142,2,0 // vmovapd 0x28e52(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x808>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -16130,9 +16295,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,45,131,2,0 // vbroadcastss 0x2832d(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,153,136,2,0 // vbroadcastss 0x28899(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,76,131,2,0 // vbroadcastss 0x2834c(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,184,136,2,0 // vbroadcastss 0x288b8(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -16165,7 +16330,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
.byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1082e <_sk_srcover_rgba_8888_avx+0x182>
+ .byte 117,66 // jne 10b82 <_sk_srcover_rgba_8888_avx+0x182>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16174,33 +16339,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 106d2 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,195,254,255,255 // ja 10a26 <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 10920 <_sk_srcover_rgba_8888_avx+0x274>
+ .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 10c74 <_sk_srcover_rgba_8888_avx+0x274>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 106d2 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,164,254,255,255 // jmpq 10a26 <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 107f2 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 119,180 // ja 10b46 <_sk_srcover_rgba_8888_avx+0x146>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 1093c <_sk_srcover_rgba_8888_avx+0x290>
+ .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 10c90 <_sk_srcover_rgba_8888_avx+0x290>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 107f2 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 235,152 // jmp 10b46 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 106d2 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,81,254,255,255 // jmpq 10a26 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -16214,10 +16379,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 106d2 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,252,253,255,255 // jmpq 10a26 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 107f2 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 10b46 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -16225,7 +16390,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 107f2 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,213,254,255,255 // jmpq 10b46 <_sk_srcover_rgba_8888_avx+0x146>
.byte 15,31,0 // nopl (%rax)
.byte 3,255 // add %edi,%edi
.byte 255 // (bad)
@@ -16238,7 +16403,7 @@ _sk_srcover_rgba_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 10935 <_sk_srcover_rgba_8888_avx+0x289>
+ .byte 125,255 // jge 10c89 <_sk_srcover_rgba_8888_avx+0x289>
.byte 255 // (bad)
.byte 255,97,255 // jmpq *-0x1(%rcx)
.byte 255 // (bad)
@@ -16272,9 +16437,9 @@ _sk_srcover_bgra_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 10aa2 <_sk_srcover_bgra_8888_avx+0x14a>
+ .byte 15,133,42,1,0,0 // jne 10df6 <_sk_srcover_bgra_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,90,134,2,0 // vmovapd 0x2865a(%rip),%ymm9 # 38fe0 <_sk_srcover_bgra_8888_sse2_lowp+0x828>
+ .byte 197,125,40,13,198,139,2,0 // vmovapd 0x28bc6(%rip),%ymm9 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x828>
.byte 196,193,61,84,233 // vandpd %ymm9,%ymm8,%ymm5
.byte 197,252,91,245 // vcvtdq2ps %ymm5,%ymm6
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -16292,9 +16457,9 @@ _sk_srcover_bgra_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,129,128,2,0 // vbroadcastss 0x28081(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,237,133,2,0 // vbroadcastss 0x285ed(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,160,128,2,0 // vbroadcastss 0x280a0(%rip),%ymm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,12,134,2,0 // vbroadcastss 0x2860c(%rip),%ymm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -16327,7 +16492,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
.byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 10ada <_sk_srcover_bgra_8888_avx+0x182>
+ .byte 117,66 // jne 10e2e <_sk_srcover_bgra_8888_avx+0x182>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16336,33 +16501,33 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 1097e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 15,135,195,254,255,255 // ja 10cd2 <_sk_srcover_bgra_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 10bcc <_sk_srcover_bgra_8888_avx+0x274>
+ .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 10f20 <_sk_srcover_bgra_8888_avx+0x274>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 1097e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,164,254,255,255 // jmpq 10cd2 <_sk_srcover_bgra_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 10a9e <_sk_srcover_bgra_8888_avx+0x146>
+ .byte 119,180 // ja 10df2 <_sk_srcover_bgra_8888_avx+0x146>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 10be8 <_sk_srcover_bgra_8888_avx+0x290>
+ .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 10f3c <_sk_srcover_bgra_8888_avx+0x290>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 10a9e <_sk_srcover_bgra_8888_avx+0x146>
+ .byte 235,152 // jmp 10df2 <_sk_srcover_bgra_8888_avx+0x146>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 1097e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,81,254,255,255 // jmpq 10cd2 <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -16376,10 +16541,10 @@ _sk_srcover_bgra_8888_avx:
.byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 1097e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,252,253,255,255 // jmpq 10cd2 <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 10a9e <_sk_srcover_bgra_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 10df2 <_sk_srcover_bgra_8888_avx+0x146>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -16387,7 +16552,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 10a9e <_sk_srcover_bgra_8888_avx+0x146>
+ .byte 233,213,254,255,255 // jmpq 10df2 <_sk_srcover_bgra_8888_avx+0x146>
.byte 15,31,0 // nopl (%rax)
.byte 3,255 // add %edi,%edi
.byte 255 // (bad)
@@ -16400,7 +16565,7 @@ _sk_srcover_bgra_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 10be1 <_sk_srcover_bgra_8888_avx+0x289>
+ .byte 125,255 // jge 10f35 <_sk_srcover_bgra_8888_avx+0x289>
.byte 255 // (bad)
.byte 255,97,255 // jmpq *-0x1(%rcx)
.byte 255 // (bad)
@@ -16438,7 +16603,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,62,126,2,0 // vbroadcastss 0x27e3e(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,170,131,2,0 // vbroadcastss 0x283aa(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -16450,7 +16615,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,29,126,2,0 // vbroadcastss 0x27e1d(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,137,131,2,0 // vbroadcastss 0x28389(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -16462,7 +16627,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,255,125,2,0 // vbroadcastss 0x27dff(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,107,131,2,0 // vbroadcastss 0x2836b(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -16495,7 +16660,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,186,125,2,0 // vbroadcastss 0x27dba(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,38,131,2,0 // vbroadcastss 0x28326(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -16549,9 +16714,9 @@ HIDDEN _sk_unpremul_avx
.globl _sk_unpremul_avx
FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
- .byte 196,98,125,24,5,85,125,2,0 // vbroadcastss 0x27d55(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,193,130,2,0 // vbroadcastss 0x282c1(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,120,125,2,0 // vbroadcastss 0x27d78(%rip),%ymm9 # 38a98 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,228,130,2,0 // vbroadcastss 0x282e4(%rip),%ymm9 # 39358 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -16565,17 +16730,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,82,125,2,0 // vbroadcastss 0x27d52(%rip),%ymm8 # 38a9c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,190,130,2,0 // vbroadcastss 0x282be(%rip),%ymm8 # 3935c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,44,125,2,0 // vbroadcastss 0x27d2c(%rip),%ymm11 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,152,130,2,0 // vbroadcastss 0x28298(%rip),%ymm11 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,54,125,2,0 // vbroadcastss 0x27d36(%rip),%ymm13 # 38aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,162,130,2,0 // vbroadcastss 0x282a2(%rip),%ymm13 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,39,125,2,0 // vbroadcastss 0x27d27(%rip),%ymm12 # 38aa4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,147,130,2,0 // vbroadcastss 0x28293(%rip),%ymm12 # 39364 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,29,125,2,0 // vbroadcastss 0x27d1d(%rip),%ymm14 # 38aa8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,137,130,2,0 // vbroadcastss 0x28289(%rip),%ymm14 # 39368 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -16601,17 +16766,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,166,124,2,0 // vbroadcastss 0x27ca6(%rip),%ymm8 # 38a9c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,18,130,2,0 // vbroadcastss 0x28212(%rip),%ymm8 # 3935c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,128,124,2,0 // vbroadcastss 0x27c80(%rip),%ymm11 # 38a88 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,236,129,2,0 // vbroadcastss 0x281ec(%rip),%ymm11 # 39348 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,138,124,2,0 // vbroadcastss 0x27c8a(%rip),%ymm13 # 38aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,246,129,2,0 // vbroadcastss 0x281f6(%rip),%ymm13 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,123,124,2,0 // vbroadcastss 0x27c7b(%rip),%ymm12 # 38aa4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,231,129,2,0 // vbroadcastss 0x281e7(%rip),%ymm12 # 39364 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,113,124,2,0 // vbroadcastss 0x27c71(%rip),%ymm14 # 38aa8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,221,129,2,0 // vbroadcastss 0x281dd(%rip),%ymm14 # 39368 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -16638,20 +16803,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,6,124,2,0 // vbroadcastss 0x27c06(%rip),%ymm8 # 38aac <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,114,129,2,0 // vbroadcastss 0x28172(%rip),%ymm8 # 3936c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,0,124,2,0 // vbroadcastss 0x27c00(%rip),%ymm11 # 38ab4 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,108,129,2,0 // vbroadcastss 0x2816c(%rip),%ymm11 # 39374 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,238,123,2,0 // vbroadcastss 0x27bee(%rip),%ymm13 # 38ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,45,90,129,2,0 // vbroadcastss 0x2815a(%rip),%ymm13 # 39370 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,19,125,2,0 // vbroadcastss 0x27d13(%rip),%ymm14 # 38be8 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,127,130,2,0 // vbroadcastss 0x2827f(%rip),%ymm14 # 394a8 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,9,125,2,0 // vbroadcastss 0x27d09(%rip),%ymm15 # 38bec <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,117,130,2,0 // vbroadcastss 0x28275(%rip),%ymm15 # 394ac <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,197,123,2,0 // vbroadcastss 0x27bc5(%rip),%ymm12 # 38ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,37,49,129,2,0 // vbroadcastss 0x28131(%rip),%ymm12 # 39380 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -16688,7 +16853,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,205,122,2,0 // vbroadcastss 0x27acd(%rip),%ymm11 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,57,128,2,0 // vbroadcastss 0x28039(%rip),%ymm11 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -16698,19 +16863,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,254,122,2,0 // vbroadcastss 0x27afe(%rip),%ymm11 # 38acc <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,29,106,128,2,0 // vbroadcastss 0x2806a(%rip),%ymm11 # 3938c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,236,122,2,0 // vbroadcastss 0x27aec(%rip),%ymm11 # 38ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,29,88,128,2,0 // vbroadcastss 0x28058(%rip),%ymm11 # 39388 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,212,122,2,0 // vbroadcastss 0x27ad4(%rip),%ymm2 # 38ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,226,125,24,21,64,128,2,0 // vbroadcastss 0x28040(%rip),%ymm2 # 39384 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,75,122,2,0 // vbroadcastss 0x27a4b(%rip),%ymm12 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,183,127,2,0 // vbroadcastss 0x27fb7(%rip),%ymm12 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -16720,7 +16885,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,126,122,2,0 // vbroadcastss 0x27a7e(%rip),%ymm8 # 38ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,234,127,2,0 // vbroadcastss 0x27fea(%rip),%ymm8 # 39390 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16737,7 +16902,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,215,121,2,0 // vbroadcastss 0x279d7(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,67,127,2,0 // vbroadcastss 0x27f43(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -16745,23 +16910,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,29,122,2,0 // vbroadcastss 0x27a1d(%rip),%ymm11 # 38ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,137,127,2,0 // vbroadcastss 0x27f89(%rip),%ymm11 # 39394 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,239,121,2,0 // vbroadcastss 0x279ef(%rip),%ymm12 # 38ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,37,91,127,2,0 // vbroadcastss 0x27f5b(%rip),%ymm12 # 39384 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,233,121,2,0 // vbroadcastss 0x279e9(%rip),%ymm13 # 38acc <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,45,85,127,2,0 // vbroadcastss 0x27f55(%rip),%ymm13 # 3938c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,222,121,2,0 // vbroadcastss 0x279de(%rip),%ymm1 # 38ad8 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,13,74,127,2,0 // vbroadcastss 0x27f4a(%rip),%ymm1 # 39398 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,181,121,2,0 // vbroadcastss 0x279b5(%rip),%ymm14 # 38ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,53,33,127,2,0 // vbroadcastss 0x27f21(%rip),%ymm14 # 39390 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -16780,7 +16945,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,95,121,2,0 // vbroadcastss 0x2795f(%rip),%ymm0 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,203,126,2,0 // vbroadcastss 0x27ecb(%rip),%ymm0 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -16834,15 +16999,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 11283 <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 115d7 <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,10,129,2,0 // vpand 0x2810a(%rip),%xmm8,%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,57,219,5,118,134,2,0 // vpand 0x28676(%rip),%xmm8,%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,118,120,2,0 // vbroadcastss 0x27876(%rip),%ymm9 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,226,125,2,0 // vbroadcastss 0x27de2(%rip),%ymm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16855,15 +17020,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 1123e <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 11592 <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 1131c <_sk_scale_u8_avx+0xfc>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 11670 <_sk_scale_u8_avx+0xfc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 1123e <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 11592 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -16871,7 +17036,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 1123e <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 11592 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -16882,7 +17047,7 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 1123e <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 11592 <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -16916,26 +17081,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 11409 <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 1175d <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,104,119,2,0 // vbroadcastss 0x27768(%rip),%ymm9 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,212,124,2,0 // vbroadcastss 0x27cd4(%rip),%ymm9 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,89,119,2,0 // vbroadcastss 0x27759(%rip),%ymm10 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,197,124,2,0 // vbroadcastss 0x27cc5(%rip),%ymm10 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,79,119,2,0 // vbroadcastss 0x2774f(%rip),%ymm10 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,187,124,2,0 // vbroadcastss 0x27cbb(%rip),%ymm10 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,64,119,2,0 // vbroadcastss 0x27740(%rip),%ymm11 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,172,124,2,0 // vbroadcastss 0x27cac(%rip),%ymm11 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,54,119,2,0 // vbroadcastss 0x27736(%rip),%ymm11 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,162,124,2,0 // vbroadcastss 0x27ca2(%rip),%ymm11 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,39,119,2,0 // vbroadcastss 0x27727(%rip),%ymm11 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,147,124,2,0 // vbroadcastss 0x27c93(%rip),%ymm11 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -16954,27 +17119,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 1135d <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 116b1 <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11490 <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 117e4 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 1135d <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 116b1 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 1135d <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 116b1 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 1135d <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 116b1 <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17026,15 +17191,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 11572 <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 118c6 <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,63,126,2,0 // vpand 0x27e3f(%rip),%xmm8,%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,57,219,5,171,131,2,0 // vpand 0x283ab(%rip),%xmm8,%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,171,117,2,0 // vbroadcastss 0x275ab(%rip),%ymm9 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,23,123,2,0 // vbroadcastss 0x27b17(%rip),%ymm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -17055,15 +17220,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 11509 <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 1185d <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 11610 <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 11964 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 11509 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 1185d <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17071,7 +17236,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 11509 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 1185d <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17082,7 +17247,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 11509 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 1185d <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -17090,7 +17255,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde011620 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd8e68>
+ .byte 232,255,255,255,221 // callq ffffffffde011974 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd88fc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -17113,26 +17278,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 11721 <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 11a75 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,116,116,2,0 // vbroadcastss 0x27474(%rip),%ymm9 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,224,121,2,0 // vbroadcastss 0x279e0(%rip),%ymm9 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,101,116,2,0 // vbroadcastss 0x27465(%rip),%ymm10 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,209,121,2,0 // vbroadcastss 0x279d1(%rip),%ymm10 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,91,116,2,0 // vbroadcastss 0x2745b(%rip),%ymm10 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,199,121,2,0 // vbroadcastss 0x279c7(%rip),%ymm10 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,76,116,2,0 // vbroadcastss 0x2744c(%rip),%ymm11 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,184,121,2,0 // vbroadcastss 0x279b8(%rip),%ymm11 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,66,116,2,0 // vbroadcastss 0x27442(%rip),%ymm11 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,174,121,2,0 // vbroadcastss 0x279ae(%rip),%ymm11 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,51,116,2,0 // vbroadcastss 0x27433(%rip),%ymm11 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,159,121,2,0 // vbroadcastss 0x2799f(%rip),%ymm11 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17159,27 +17324,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 11651 <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 119a5 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 117a8 <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11afc <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 11651 <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 119a5 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 11651 <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 119a5 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 11651 <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 119a5 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17207,9 +17372,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 119dc <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 11d30 <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,26,120,2,0 // vmovapd 0x2781a(%rip),%ymm9 # 39000 <_sk_srcover_bgra_8888_sse2_lowp+0x848>
+ .byte 197,125,40,13,134,125,2,0 // vmovapd 0x27d86(%rip),%ymm9 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x848>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -17301,7 +17466,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,18,113,2,0 // vbroadcastss 0x27112(%rip),%ymm7 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,61,126,118,2,0 // vbroadcastss 0x2767e(%rip),%ymm7 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -17311,21 +17476,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 117de <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 11b32 <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 11a94 <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 11de8 <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 117de <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 11b32 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 117de <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 11b32 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -17339,9 +17504,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 117de <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 11b32 <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 11a95 <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 11de9 <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -17371,7 +17536,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 11d1d <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 12071 <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -17387,7 +17552,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,44,120,2,0 // vmovdqa 0x2782c(%rip),%xmm11 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,121,111,29,152,125,2,0 // vmovdqa 0x27d98(%rip),%xmm11 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -17481,7 +17646,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,243,109,2,0 // vbroadcastss 0x26df3(%rip),%ymm6 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,226,125,24,53,95,115,2,0 // vbroadcastss 0x2735f(%rip),%ymm6 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -17490,29 +17655,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 11d83 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 120d7 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 11d83 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 120d7 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 11d90 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 120e4 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 11d90 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 120e4 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 11aed <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 11e41 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 11aed <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 11e41 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 11aed <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 11e41 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 11aed <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 11e41 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 11aed <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 11e41 <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -17524,7 +17689,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 11fed <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 12341 <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -17545,7 +17710,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,44,117,2,0 // vmovdqa 0x2752c(%rip),%xmm14 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,121,111,53,152,122,2,0 // vmovdqa 0x27a98(%rip),%xmm14 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -17631,7 +17796,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,137,106,2,0 // vbroadcastss 0x26a89(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,245,111,2,0 // vbroadcastss 0x26ff5(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -17639,70 +17804,70 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 12025 <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 12379 <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 11dec <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 12140 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 1206f <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 123c3 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 12089 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 123dd <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 11dec <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 12140 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 11dec <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 12140 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 120ca <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 1241e <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 120db <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 1242f <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 11dec <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 12140 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 11dec <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 12140 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 1210e <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 12462 <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 11dec <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 12140 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 11dec <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 12140 <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,114,105,2,0 // vbroadcastss 0x26972(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,222,110,2,0 // vbroadcastss 0x26ede(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -17837,7 +18002,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,46,103,2,0 // vbroadcastss 0x2672e(%rip),%ymm9 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,154,108,2,0 // vbroadcastss 0x26c9a(%rip),%ymm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -17965,7 +18130,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,227,100,2,0 // vbroadcastss 0x264e3(%rip),%ymm9 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,79,106,2,0 // vbroadcastss 0x26a4f(%rip),%ymm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -18202,36 +18367,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,116,97,2,0 // vbroadcastss 0x26174(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,224,102,2,0 // vbroadcastss 0x266e0(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,106,97,2,0 // vbroadcastss 0x2616a(%rip),%ymm12 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,214,102,2,0 // vbroadcastss 0x266d6(%rip),%ymm12 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,188,96,2,0 // vbroadcastss 0x260bc(%rip),%ymm12 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,40,102,2,0 // vbroadcastss 0x26628(%rip),%ymm12 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,82,97,2,0 // vbroadcastss 0x26152(%rip),%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,37,190,102,2,0 // vbroadcastss 0x266be(%rip),%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,72,97,2,0 // vbroadcastss 0x26148(%rip),%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,180,102,2,0 // vbroadcastss 0x266b4(%rip),%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,57,97,2,0 // vbroadcastss 0x26139(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,165,102,2,0 // vbroadcastss 0x266a5(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,47,97,2,0 // vbroadcastss 0x2612f(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,155,102,2,0 // vbroadcastss 0x2669b(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,19,97,2,0 // vbroadcastss 0x26113(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,127,102,2,0 // vbroadcastss 0x2667f(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,9,97,2,0 // vbroadcastss 0x26109(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,117,102,2,0 // vbroadcastss 0x26675(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,250,96,2,0 // vbroadcastss 0x260fa(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,102,102,2,0 // vbroadcastss 0x26666(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,240,96,2,0 // vbroadcastss 0x260f0(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,92,102,2,0 // vbroadcastss 0x2665c(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,225,96,2,0 // vbroadcastss 0x260e1(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,77,102,2,0 // vbroadcastss 0x2664d(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -18239,7 +18404,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,245,95,2,0 // vbroadcastss 0x25ff5(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,97,101,2,0 // vbroadcastss 0x26561(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18261,36 +18426,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,58,96,2,0 // vbroadcastss 0x2603a(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,166,101,2,0 // vbroadcastss 0x265a6(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,48,96,2,0 // vbroadcastss 0x26030(%rip),%ymm12 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,156,101,2,0 // vbroadcastss 0x2659c(%rip),%ymm12 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,130,95,2,0 // vbroadcastss 0x25f82(%rip),%ymm12 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,238,100,2,0 // vbroadcastss 0x264ee(%rip),%ymm12 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,24,96,2,0 // vbroadcastss 0x26018(%rip),%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,37,132,101,2,0 // vbroadcastss 0x26584(%rip),%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,14,96,2,0 // vbroadcastss 0x2600e(%rip),%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,122,101,2,0 // vbroadcastss 0x2657a(%rip),%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,255,95,2,0 // vbroadcastss 0x25fff(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,107,101,2,0 // vbroadcastss 0x2656b(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,245,95,2,0 // vbroadcastss 0x25ff5(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,97,101,2,0 // vbroadcastss 0x26561(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,217,95,2,0 // vbroadcastss 0x25fd9(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,69,101,2,0 // vbroadcastss 0x26545(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,207,95,2,0 // vbroadcastss 0x25fcf(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,59,101,2,0 // vbroadcastss 0x2653b(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,192,95,2,0 // vbroadcastss 0x25fc0(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,44,101,2,0 // vbroadcastss 0x2652c(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,182,95,2,0 // vbroadcastss 0x25fb6(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,34,101,2,0 // vbroadcastss 0x26522(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,167,95,2,0 // vbroadcastss 0x25fa7(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,19,101,2,0 // vbroadcastss 0x26513(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -18298,7 +18463,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,187,94,2,0 // vbroadcastss 0x25ebb(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,39,100,2,0 // vbroadcastss 0x26427(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18320,36 +18485,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,0,95,2,0 // vbroadcastss 0x25f00(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,108,100,2,0 // vbroadcastss 0x2646c(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,246,94,2,0 // vbroadcastss 0x25ef6(%rip),%ymm12 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,98,100,2,0 // vbroadcastss 0x26462(%rip),%ymm12 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,72,94,2,0 // vbroadcastss 0x25e48(%rip),%ymm12 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,180,99,2,0 // vbroadcastss 0x263b4(%rip),%ymm12 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,222,94,2,0 // vbroadcastss 0x25ede(%rip),%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,37,74,100,2,0 // vbroadcastss 0x2644a(%rip),%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,212,94,2,0 // vbroadcastss 0x25ed4(%rip),%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,64,100,2,0 // vbroadcastss 0x26440(%rip),%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,197,94,2,0 // vbroadcastss 0x25ec5(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,49,100,2,0 // vbroadcastss 0x26431(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,187,94,2,0 // vbroadcastss 0x25ebb(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,39,100,2,0 // vbroadcastss 0x26427(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,159,94,2,0 // vbroadcastss 0x25e9f(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,11,100,2,0 // vbroadcastss 0x2640b(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,149,94,2,0 // vbroadcastss 0x25e95(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,1,100,2,0 // vbroadcastss 0x26401(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,134,94,2,0 // vbroadcastss 0x25e86(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,242,99,2,0 // vbroadcastss 0x263f2(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,124,94,2,0 // vbroadcastss 0x25e7c(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,232,99,2,0 // vbroadcastss 0x263e8(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,109,94,2,0 // vbroadcastss 0x25e6d(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,217,99,2,0 // vbroadcastss 0x263d9(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -18357,7 +18522,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,129,93,2,0 // vbroadcastss 0x25d81(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,237,98,2,0 // vbroadcastss 0x262ed(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18379,36 +18544,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,198,93,2,0 // vbroadcastss 0x25dc6(%rip),%ymm12 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,50,99,2,0 // vbroadcastss 0x26332(%rip),%ymm12 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,188,93,2,0 // vbroadcastss 0x25dbc(%rip),%ymm12 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,37,40,99,2,0 // vbroadcastss 0x26328(%rip),%ymm12 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,14,93,2,0 // vbroadcastss 0x25d0e(%rip),%ymm12 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,122,98,2,0 // vbroadcastss 0x2627a(%rip),%ymm12 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,164,93,2,0 // vbroadcastss 0x25da4(%rip),%ymm12 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,37,16,99,2,0 // vbroadcastss 0x26310(%rip),%ymm12 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,154,93,2,0 // vbroadcastss 0x25d9a(%rip),%ymm12 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,6,99,2,0 // vbroadcastss 0x26306(%rip),%ymm12 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,139,93,2,0 // vbroadcastss 0x25d8b(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,247,98,2,0 // vbroadcastss 0x262f7(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,129,93,2,0 // vbroadcastss 0x25d81(%rip),%ymm12 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,37,237,98,2,0 // vbroadcastss 0x262ed(%rip),%ymm12 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,101,93,2,0 // vbroadcastss 0x25d65(%rip),%ymm11 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,209,98,2,0 // vbroadcastss 0x262d1(%rip),%ymm11 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,91,93,2,0 // vbroadcastss 0x25d5b(%rip),%ymm11 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,199,98,2,0 // vbroadcastss 0x262c7(%rip),%ymm11 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,76,93,2,0 // vbroadcastss 0x25d4c(%rip),%ymm11 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,184,98,2,0 // vbroadcastss 0x262b8(%rip),%ymm11 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,66,93,2,0 // vbroadcastss 0x25d42(%rip),%ymm11 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,29,174,98,2,0 // vbroadcastss 0x262ae(%rip),%ymm11 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,51,93,2,0 // vbroadcastss 0x25d33(%rip),%ymm10 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,159,98,2,0 // vbroadcastss 0x2629f(%rip),%ymm10 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -18416,7 +18581,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,71,92,2,0 // vbroadcastss 0x25c47(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,179,97,2,0 // vbroadcastss 0x261b3(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18435,34 +18600,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,158,92,2,0 // vbroadcastss 0x25c9e(%rip),%ymm8 # 38b00 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,5,10,98,2,0 // vbroadcastss 0x2620a(%rip),%ymm8 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,148,92,2,0 // vbroadcastss 0x25c94(%rip),%ymm9 # 38b04 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,13,0,98,2,0 // vbroadcastss 0x26200(%rip),%ymm9 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,230,91,2,0 // vbroadcastss 0x25be6(%rip),%ymm4 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,37,82,97,2,0 // vbroadcastss 0x26152(%rip),%ymm4 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,125,92,2,0 // vbroadcastss 0x25c7d(%rip),%ymm10 # 38b08 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,21,233,97,2,0 // vbroadcastss 0x261e9(%rip),%ymm10 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,115,92,2,0 // vbroadcastss 0x25c73(%rip),%ymm11 # 38b0c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,29,223,97,2,0 // vbroadcastss 0x261df(%rip),%ymm11 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,101,92,2,0 // vbroadcastss 0x25c65(%rip),%ymm12 # 38b10 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,37,209,97,2,0 // vbroadcastss 0x261d1(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,91,92,2,0 // vbroadcastss 0x25c5b(%rip),%ymm13 # 38b14 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,45,199,97,2,0 // vbroadcastss 0x261c7(%rip),%ymm13 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,58,92,2,0 // vbroadcastss 0x25c3a(%rip),%ymm15 # 38b18 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,166,97,2,0 // vbroadcastss 0x261a6(%rip),%ymm15 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,48,92,2,0 // vbroadcastss 0x25c30(%rip),%ymm3 # 38b1c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,226,125,24,29,156,97,2,0 // vbroadcastss 0x2619c(%rip),%ymm3 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,35,92,2,0 // vbroadcastss 0x25c23(%rip),%ymm2 # 38b20 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,21,143,97,2,0 // vbroadcastss 0x2618f(%rip),%ymm2 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,26,92,2,0 // vbroadcastss 0x25c1a(%rip),%ymm6 # 38b24 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,53,134,97,2,0 // vbroadcastss 0x26186(%rip),%ymm6 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -18504,7 +18669,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,93,91,2,0 // vbroadcastss 0x25b5d(%rip),%ymm2 # 38b28 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,21,201,96,2,0 // vbroadcastss 0x260c9(%rip),%ymm2 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -18520,35 +18685,134 @@ _sk_gamma_avx:
.byte 72,131,196,88 // add $0x58,%rsp
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_gamma_dst_avx
+.globl _sk_gamma_dst_avx
+FUNCTION(_sk_gamma_dst_avx)
+_sk_gamma_dst_avx:
+ .byte 72,131,236,88 // sub $0x58,%rsp
+ .byte 197,252,17,124,36,32 // vmovups %ymm7,0x20(%rsp)
+ .byte 197,252,40,254 // vmovaps %ymm6,%ymm7
+ .byte 197,252,40,245 // vmovaps %ymm5,%ymm6
+ .byte 197,252,17,28,36 // vmovups %ymm3,(%rsp)
+ .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
+ .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
+ .byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,91,196 // vcvtdq2ps %ymm4,%ymm0
+ .byte 196,98,125,24,5,42,96,2,0 // vbroadcastss 0x2602a(%rip),%ymm8 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 196,98,125,24,13,32,96,2,0 // vbroadcastss 0x26020(%rip),%ymm9 # 393c4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,193,92,84,201 // vandps %ymm9,%ymm4,%ymm1
+ .byte 196,226,125,24,45,114,95,2,0 // vbroadcastss 0x25f72(%rip),%ymm5 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,244,86,205 // vorps %ymm5,%ymm1,%ymm1
+ .byte 196,98,125,24,21,9,96,2,0 // vbroadcastss 0x26009(%rip),%ymm10 # 393c8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
+ .byte 196,98,125,24,29,255,95,2,0 // vbroadcastss 0x25fff(%rip),%ymm11 # 393cc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
+ .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
+ .byte 196,98,125,24,37,241,95,2,0 // vbroadcastss 0x25ff1(%rip),%ymm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
+ .byte 196,98,125,24,45,231,95,2,0 // vbroadcastss 0x25fe7(%rip),%ymm13 # 393d4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 197,148,94,201 // vdivps %ymm1,%ymm13,%ymm1
+ .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
+ .byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
+ .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
+ .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
+ .byte 197,252,92,217 // vsubps %ymm1,%ymm0,%ymm3
+ .byte 196,98,125,24,61,198,95,2,0 // vbroadcastss 0x25fc6(%rip),%ymm15 # 393d8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
+ .byte 196,226,125,24,37,188,95,2,0 // vbroadcastss 0x25fbc(%rip),%ymm4 # 393dc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 197,228,89,204 // vmulps %ymm4,%ymm3,%ymm1
+ .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
+ .byte 196,226,125,24,21,175,95,2,0 // vbroadcastss 0x25faf(%rip),%ymm2 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 197,236,92,195 // vsubps %ymm3,%ymm2,%ymm0
+ .byte 196,226,125,24,29,166,95,2,0 // vbroadcastss 0x25fa6(%rip),%ymm3 # 393e4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 197,228,94,192 // vdivps %ymm0,%ymm3,%ymm0
+ .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
+ .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
+ .byte 197,252,91,206 // vcvtdq2ps %ymm6,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 196,193,76,84,241 // vandps %ymm9,%ymm6,%ymm6
+ .byte 197,204,86,245 // vorps %ymm5,%ymm6,%ymm6
+ .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
+ .byte 196,193,76,89,195 // vmulps %ymm11,%ymm6,%ymm0
+ .byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
+ .byte 196,193,76,88,204 // vaddps %ymm12,%ymm6,%ymm1
+ .byte 197,148,94,201 // vdivps %ymm1,%ymm13,%ymm1
+ .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
+ .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
+ .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
+ .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
+ .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
+ .byte 197,244,89,244 // vmulps %ymm4,%ymm1,%ymm6
+ .byte 197,252,92,198 // vsubps %ymm6,%ymm0,%ymm0
+ .byte 197,236,92,201 // vsubps %ymm1,%ymm2,%ymm1
+ .byte 197,228,94,201 // vdivps %ymm1,%ymm3,%ymm1
+ .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
+ .byte 197,252,91,207 // vcvtdq2ps %ymm7,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 196,193,68,84,241 // vandps %ymm9,%ymm7,%ymm6
+ .byte 197,204,86,237 // vorps %ymm5,%ymm6,%ymm5
+ .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
+ .byte 196,193,84,89,243 // vmulps %ymm11,%ymm5,%ymm6
+ .byte 197,244,92,206 // vsubps %ymm6,%ymm1,%ymm1
+ .byte 196,193,84,88,236 // vaddps %ymm12,%ymm5,%ymm5
+ .byte 197,148,94,237 // vdivps %ymm5,%ymm13,%ymm5
+ .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
+ .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
+ .byte 196,227,125,8,233,1 // vroundps $0x1,%ymm1,%ymm5
+ .byte 197,244,92,237 // vsubps %ymm5,%ymm1,%ymm5
+ .byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1
+ .byte 197,212,89,228 // vmulps %ymm4,%ymm5,%ymm4
+ .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1
+ .byte 197,236,92,213 // vsubps %ymm5,%ymm2,%ymm2
+ .byte 197,228,94,210 // vdivps %ymm2,%ymm3,%ymm2
+ .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
+ .byte 196,226,125,24,21,233,94,2,0 // vbroadcastss 0x25ee9(%rip),%ymm2 # 393e8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
+ .byte 197,252,89,194 // vmulps %ymm2,%ymm0,%ymm0
+ .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
+ .byte 197,253,91,227 // vcvtps2dq %ymm3,%ymm4
+ .byte 197,253,91,232 // vcvtps2dq %ymm0,%ymm5
+ .byte 197,253,91,241 // vcvtps2dq %ymm1,%ymm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,68,36,160 // vmovups -0x60(%rsp),%ymm0
+ .byte 197,252,16,76,36,192 // vmovups -0x40(%rsp),%ymm1
+ .byte 197,252,16,84,36,224 // vmovups -0x20(%rsp),%ymm2
+ .byte 197,252,16,28,36 // vmovups (%rsp),%ymm3
+ .byte 197,252,16,124,36,32 // vmovups 0x20(%rsp),%ymm7
+ .byte 72,131,196,88 // add $0x58,%rsp
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,25,91,2,0 // vbroadcastss 0x25b19(%rip),%ymm8 # 38b2c <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,5,165,94,2,0 // vbroadcastss 0x25ea5(%rip),%ymm8 # 393ec <_sk_srcover_bgra_8888_sse2_lowp+0x374>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,115,90,2,0 // vbroadcastss 0x25a73(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,255,93,2,0 // vbroadcastss 0x25dff(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,1,91,2,0 // vbroadcastss 0x25b01(%rip),%ymm9 # 38b30 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,13,141,94,2,0 // vbroadcastss 0x25e8d(%rip),%ymm9 # 393f0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,237,90,2,0 // vbroadcastss 0x25aed(%rip),%ymm8 # 38b34 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,5,121,94,2,0 // vbroadcastss 0x25e79(%rip),%ymm8 # 393f4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,227,90,2,0 // vbroadcastss 0x25ae3(%rip),%ymm8 # 38b38 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,98,125,24,5,111,94,2,0 // vbroadcastss 0x25e6f(%rip),%ymm8 # 393f8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,217,90,2,0 // vbroadcastss 0x25ad9(%rip),%ymm8 # 38b3c <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,101,94,2,0 // vbroadcastss 0x25e65(%rip),%ymm8 # 393fc <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,203,90,2,0 // vbroadcastss 0x25acb(%rip),%ymm8 # 38b40 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,5,87,94,2,0 // vbroadcastss 0x25e57(%rip),%ymm8 # 39400 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,180,90,2,0 // vbroadcastss 0x25ab4(%rip),%ymm9 # 38b44 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,64,94,2,0 // vbroadcastss 0x25e40(%rip),%ymm9 # 39404 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,169,90,2,0 // vbroadcastss 0x25aa9(%rip),%ymm11 # 38b48 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,53,94,2,0 // vbroadcastss 0x25e35(%rip),%ymm11 # 39408 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,159,90,2,0 // vbroadcastss 0x25a9f(%rip),%ymm12 # 38b4c <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,43,94,2,0 // vbroadcastss 0x25e2b(%rip),%ymm12 # 3940c <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -18563,9 +18827,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,85,90,2,0 // vbroadcastss 0x25a55(%rip),%ymm0 # 38b50 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,225,93,2,0 // vbroadcastss 0x25de1(%rip),%ymm0 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,76,90,2,0 // vbroadcastss 0x25a4c(%rip),%ymm8 # 38b54 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,216,93,2,0 // vbroadcastss 0x25dd8(%rip),%ymm8 # 39414 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18581,15 +18845,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1316d <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 136a1 <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,25,98,2,0 // vpand 0x26219(%rip),%xmm0,%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,249,219,5,165,101,2,0 // vpand 0x265a5(%rip),%xmm0,%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,135,89,2,0 // vbroadcastss 0x25987(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,19,93,2,0 // vbroadcastss 0x25d13(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -18601,15 +18865,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 1312f <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 13663 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13204 <_sk_load_a8_avx+0xf3>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13738 <_sk_load_a8_avx+0xf3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp 1312f <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 13663 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -18617,7 +18881,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq 1312f <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 13663 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -18628,7 +18892,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq 1312f <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 13663 <_sk_load_a8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -18637,7 +18901,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf013214 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefdaa5c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf013748 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda6d0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -18659,15 +18923,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1327c <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 137b0 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,10,97,2,0 // vpand 0x2610a(%rip),%xmm4,%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,217,219,37,150,100,2,0 // vpand 0x26496(%rip),%xmm4,%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,120,88,2,0 // vbroadcastss 0x25878(%rip),%ymm5 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,4,92,2,0 // vbroadcastss 0x25c04(%rip),%ymm5 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -18679,15 +18943,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 1323e <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 13772 <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 13314 <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 13848 <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp 1323e <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 13772 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -18695,7 +18959,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq 1323e <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 13772 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -18706,7 +18970,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq 1323e <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 13772 <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -18715,7 +18979,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde013324 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfdab6c>
+ .byte 232,255,255,255,221 // callq ffffffffde013858 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda7e0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -18795,7 +19059,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,126,86,2,0 // vbroadcastss 0x2567e(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,10,90,2,0 // vbroadcastss 0x25a0a(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -18818,14 +19082,14 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,250,85,2,0 // vbroadcastss 0x255fa(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,134,89,2,0 // vbroadcastss 0x25986(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 134c2 <_sk_store_a8_avx+0x44>
+ .byte 117,10 // jne 139f6 <_sk_store_a8_avx+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18833,25 +19097,25 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 134be <_sk_store_a8_avx+0x40>
+ .byte 119,236 // ja 139f2 <_sk_store_a8_avx+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 13538 <_sk_store_a8_avx+0xba>
+ .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 13a6c <_sk_store_a8_avx+0xba>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 134be <_sk_store_a8_avx+0x40>
+ .byte 235,202 // jmp 139f2 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,91,94,2,0 // vpshufb 0x25e5b(%rip),%xmm8,%xmm8 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
+ .byte 196,98,57,0,5,231,97,2,0 // vpshufb 0x261e7(%rip),%xmm8,%xmm8 # 39c20 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 134be <_sk_store_a8_avx+0x40>
+ .byte 235,176 // jmp 139f2 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,65,94,2,0 // vpshufb 0x25e41(%rip),%xmm8,%xmm8 # 39370 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
+ .byte 196,98,57,0,5,205,97,2,0 // vpshufb 0x261cd(%rip),%xmm8,%xmm8 # 39c30 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 134be <_sk_store_a8_avx+0x40>
+ .byte 235,135 // jmp 139f2 <_sk_store_a8_avx+0x40>
.byte 144 // nop
.byte 179,255 // mov $0xff,%bl
.byte 255 // (bad)
@@ -18884,18 +19148,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 135b5 <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 13ae9 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,214,93,2,0 // vpand 0x25dd6(%rip),%xmm0,%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,249,219,5,98,97,2,0 // vpand 0x26162(%rip),%xmm0,%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,68,85,2,0 // vbroadcastss 0x25544(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,208,88,2,0 // vbroadcastss 0x258d0(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,189,84,2,0 // vbroadcastss 0x254bd(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,73,88,2,0 // vbroadcastss 0x25849(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -18904,15 +19168,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 13572 <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 13aa6 <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 1364c <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13b80 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp 13572 <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 13aa6 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -18920,7 +19184,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq 13572 <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 13aa6 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -18931,7 +19195,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq 13572 <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 13aa6 <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -18940,7 +19204,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf01365c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefdaea4>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf013b90 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefdab18>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -18962,18 +19226,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 136c9 <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 13bfd <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,194,92,2,0 // vpand 0x25cc2(%rip),%xmm4,%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 197,217,219,37,78,96,2,0 // vpand 0x2604e(%rip),%xmm4,%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,48,84,2,0 // vbroadcastss 0x25430(%rip),%ymm5 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,188,87,2,0 // vbroadcastss 0x257bc(%rip),%ymm5 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,169,83,2,0 // vbroadcastss 0x253a9(%rip),%ymm7 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,53,87,2,0 // vbroadcastss 0x25735(%rip),%ymm7 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -18982,15 +19246,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 13686 <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 13bba <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13760 <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13c94 <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp 13686 <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 13bba <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -18998,7 +19262,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq 13686 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 13bba <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19009,7 +19273,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq 13686 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 13bba <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19018,7 +19282,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf013770 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefdafb8>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf013ca4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefdac2c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19098,10 +19362,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,50,82,2,0 // vbroadcastss 0x25232(%rip),%ymm1 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,190,85,2,0 // vbroadcastss 0x255be(%rip),%ymm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,171,81,2,0 // vbroadcastss 0x251ab(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,55,85,2,0 // vbroadcastss 0x25537(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -19123,56 +19387,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 13970 <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 13ea4 <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,210,81,2,0 // vbroadcastss 0x251d2(%rip),%ymm0 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,94,85,2,0 // vbroadcastss 0x2555e(%rip),%ymm0 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,197,81,2,0 // vbroadcastss 0x251c5(%rip),%ymm1 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,81,85,2,0 // vbroadcastss 0x25551(%rip),%ymm1 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,188,81,2,0 // vbroadcastss 0x251bc(%rip),%ymm1 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,72,85,2,0 // vbroadcastss 0x25548(%rip),%ymm1 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,175,81,2,0 // vbroadcastss 0x251af(%rip),%ymm3 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,59,85,2,0 // vbroadcastss 0x2553b(%rip),%ymm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,166,81,2,0 // vbroadcastss 0x251a6(%rip),%ymm3 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,50,85,2,0 // vbroadcastss 0x25532(%rip),%ymm3 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,153,81,2,0 // vbroadcastss 0x25199(%rip),%ymm3 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,37,85,2,0 // vbroadcastss 0x25525(%rip),%ymm3 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,250,80,2,0 // vbroadcastss 0x250fa(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,134,84,2,0 // vbroadcastss 0x25486(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 138f4 <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 13e28 <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 139f4 <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 13f28 <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq 138f4 <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 13e28 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq 138f4 <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 13e28 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq 138f4 <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 13e28 <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -19204,56 +19468,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 13ab1 <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 13fe5 <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,145,80,2,0 // vbroadcastss 0x25091(%rip),%ymm4 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,37,29,84,2,0 // vbroadcastss 0x2541d(%rip),%ymm4 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,132,80,2,0 // vbroadcastss 0x25084(%rip),%ymm5 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,16,84,2,0 // vbroadcastss 0x25410(%rip),%ymm5 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,123,80,2,0 // vbroadcastss 0x2507b(%rip),%ymm5 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,45,7,84,2,0 // vbroadcastss 0x25407(%rip),%ymm5 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,110,80,2,0 // vbroadcastss 0x2506e(%rip),%ymm7 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,250,83,2,0 // vbroadcastss 0x253fa(%rip),%ymm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,101,80,2,0 // vbroadcastss 0x25065(%rip),%ymm7 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,61,241,83,2,0 // vbroadcastss 0x253f1(%rip),%ymm7 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,88,80,2,0 // vbroadcastss 0x25058(%rip),%ymm7 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,228,83,2,0 // vbroadcastss 0x253e4(%rip),%ymm7 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,185,79,2,0 // vbroadcastss 0x24fb9(%rip),%ymm7 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,69,83,2,0 // vbroadcastss 0x25345(%rip),%ymm7 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 13a35 <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 13f69 <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13b38 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1406c <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq 13a35 <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 13f69 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq 13a35 <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 13f69 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq 13a35 <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 13f69 <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -19346,23 +19610,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,97,78,2,0 // vbroadcastss 0x24e61(%rip),%ymm0 # 38ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,237,81,2,0 // vbroadcastss 0x251ed(%rip),%ymm0 # 393a4 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,84,78,2,0 // vbroadcastss 0x24e54(%rip),%ymm1 # 38ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,224,81,2,0 // vbroadcastss 0x251e0(%rip),%ymm1 # 393a8 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,75,78,2,0 // vbroadcastss 0x24e4b(%rip),%ymm1 # 38aec <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,215,81,2,0 // vbroadcastss 0x251d7(%rip),%ymm1 # 393ac <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,62,78,2,0 // vbroadcastss 0x24e3e(%rip),%ymm3 # 38af0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,202,81,2,0 // vbroadcastss 0x251ca(%rip),%ymm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,53,78,2,0 // vbroadcastss 0x24e35(%rip),%ymm3 # 38af4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,193,81,2,0 // vbroadcastss 0x251c1(%rip),%ymm3 # 393b4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,40,78,2,0 // vbroadcastss 0x24e28(%rip),%ymm3 # 38af8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,180,81,2,0 // vbroadcastss 0x251b4(%rip),%ymm3 # 393b8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,137,77,2,0 // vbroadcastss 0x24d89(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,21,81,2,0 // vbroadcastss 0x25115(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -19381,14 +19645,14 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,80,78,2,0 // vbroadcastss 0x24e50(%rip),%ymm8 # 38b58 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,5,220,81,2,0 // vbroadcastss 0x251dc(%rip),%ymm8 # 39418 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,41,78,2,0 // vbroadcastss 0x24e29(%rip),%ymm10 # 38b5c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,21,181,81,2,0 // vbroadcastss 0x251b5(%rip),%ymm10 # 3941c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -19402,7 +19666,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 13d83 <_sk_store_565_avx+0x9a>
+ .byte 117,10 // jne 142b7 <_sk_store_565_avx+0x9a>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19410,22 +19674,22 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 13d7f <_sk_store_565_avx+0x96>
+ .byte 119,236 // ja 142b3 <_sk_store_565_avx+0x96>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 13de0 <_sk_store_565_avx+0xf7>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 14314 <_sk_store_565_avx+0xf7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 13d7f <_sk_store_565_avx+0x96>
+ .byte 235,207 // jmp 142b3 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 13d7f <_sk_store_565_avx+0x96>
+ .byte 235,191 // jmp 142b3 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 13d7f <_sk_store_565_avx+0x96>
+ .byte 235,159 // jmp 142b3 <_sk_store_565_avx+0x96>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -19443,7 +19707,7 @@ _sk_store_565_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1013df8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb640>
+ .byte 232,255,255,255,224 // callq ffffffffe101432c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb2b4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -19460,31 +19724,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 13eb5 <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 143e9 <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,33,77,2,0 // vbroadcastss 0x24d21(%rip),%ymm0 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,173,80,2,0 // vbroadcastss 0x250ad(%rip),%ymm0 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,20,77,2,0 // vbroadcastss 0x24d14(%rip),%ymm1 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,160,80,2,0 // vbroadcastss 0x250a0(%rip),%ymm1 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,11,77,2,0 // vbroadcastss 0x24d0b(%rip),%ymm1 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,151,80,2,0 // vbroadcastss 0x25097(%rip),%ymm1 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,254,76,2,0 // vbroadcastss 0x24cfe(%rip),%ymm2 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,138,80,2,0 // vbroadcastss 0x2508a(%rip),%ymm2 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,245,76,2,0 // vbroadcastss 0x24cf5(%rip),%ymm2 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,129,80,2,0 // vbroadcastss 0x25081(%rip),%ymm2 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,232,76,2,0 // vbroadcastss 0x24ce8(%rip),%ymm8 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,116,80,2,0 // vbroadcastss 0x25074(%rip),%ymm8 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,222,76,2,0 // vbroadcastss 0x24cde(%rip),%ymm8 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,106,80,2,0 // vbroadcastss 0x2506a(%rip),%ymm8 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,208,76,2,0 // vbroadcastss 0x24cd0(%rip),%ymm8 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,92,80,2,0 // vbroadcastss 0x2505c(%rip),%ymm8 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19493,27 +19757,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 13e21 <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 14355 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13f3c <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14470 <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq 13e21 <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 14355 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq 13e21 <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 14355 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 13e21 <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 14355 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -19549,31 +19813,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 14011 <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 14545 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,197,75,2,0 // vbroadcastss 0x24bc5(%rip),%ymm4 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,37,81,79,2,0 // vbroadcastss 0x24f51(%rip),%ymm4 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,184,75,2,0 // vbroadcastss 0x24bb8(%rip),%ymm5 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,68,79,2,0 // vbroadcastss 0x24f44(%rip),%ymm5 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,175,75,2,0 // vbroadcastss 0x24baf(%rip),%ymm5 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,45,59,79,2,0 // vbroadcastss 0x24f3b(%rip),%ymm5 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,162,75,2,0 // vbroadcastss 0x24ba2(%rip),%ymm6 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,46,79,2,0 // vbroadcastss 0x24f2e(%rip),%ymm6 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,153,75,2,0 // vbroadcastss 0x24b99(%rip),%ymm6 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,53,37,79,2,0 // vbroadcastss 0x24f25(%rip),%ymm6 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,140,75,2,0 // vbroadcastss 0x24b8c(%rip),%ymm8 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,24,79,2,0 // vbroadcastss 0x24f18(%rip),%ymm8 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,130,75,2,0 // vbroadcastss 0x24b82(%rip),%ymm8 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,14,79,2,0 // vbroadcastss 0x24f0e(%rip),%ymm8 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,116,75,2,0 // vbroadcastss 0x24b74(%rip),%ymm8 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,0,79,2,0 // vbroadcastss 0x24f00(%rip),%ymm8 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19582,27 +19846,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 13f7d <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 144b1 <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14098 <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 145cc <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq 13f7d <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 144b1 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq 13f7d <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 144b1 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq 13f7d <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 144b1 <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -19695,25 +19959,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,125,73,2,0 // vbroadcastss 0x2497d(%rip),%ymm0 # 38b60 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,9,77,2,0 // vbroadcastss 0x24d09(%rip),%ymm0 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,112,73,2,0 // vbroadcastss 0x24970(%rip),%ymm1 # 38b64 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,252,76,2,0 // vbroadcastss 0x24cfc(%rip),%ymm1 # 39424 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,103,73,2,0 // vbroadcastss 0x24967(%rip),%ymm1 # 38b68 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,243,76,2,0 // vbroadcastss 0x24cf3(%rip),%ymm1 # 39428 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,90,73,2,0 // vbroadcastss 0x2495a(%rip),%ymm2 # 38b6c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,230,76,2,0 // vbroadcastss 0x24ce6(%rip),%ymm2 # 3942c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,81,73,2,0 // vbroadcastss 0x24951(%rip),%ymm2 # 38b70 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,221,76,2,0 // vbroadcastss 0x24cdd(%rip),%ymm2 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,68,73,2,0 // vbroadcastss 0x24944(%rip),%ymm8 # 38b74 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,208,76,2,0 // vbroadcastss 0x24cd0(%rip),%ymm8 # 39434 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,58,73,2,0 // vbroadcastss 0x2493a(%rip),%ymm8 # 38b78 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,198,76,2,0 // vbroadcastss 0x24cc6(%rip),%ymm8 # 39438 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,44,73,2,0 // vbroadcastss 0x2492c(%rip),%ymm8 # 38b7c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,184,76,2,0 // vbroadcastss 0x24cb8(%rip),%ymm8 # 3943c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -19734,7 +19998,7 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,0,73,2,0 // vbroadcastss 0x24900(%rip),%ymm8 # 38b80 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,5,140,76,2,0 // vbroadcastss 0x24c8c(%rip),%ymm8 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -19761,7 +20025,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14319 <_sk_store_4444_avx+0xb8>
+ .byte 117,10 // jne 1484d <_sk_store_4444_avx+0xb8>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19769,22 +20033,22 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14315 <_sk_store_4444_avx+0xb4>
+ .byte 119,236 // ja 14849 <_sk_store_4444_avx+0xb4>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 14378 <_sk_store_4444_avx+0x117>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 148ac <_sk_store_4444_avx+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 14315 <_sk_store_4444_avx+0xb4>
+ .byte 235,207 // jmp 14849 <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 14315 <_sk_store_4444_avx+0xb4>
+ .byte 235,191 // jmp 14849 <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 14315 <_sk_store_4444_avx+0xb4>
+ .byte 235,159 // jmp 14849 <_sk_store_4444_avx+0xb4>
.byte 102,144 // xchg %ax,%ax
.byte 197,255,255 // (bad)
.byte 255,214 // callq *%rsi
@@ -19820,12 +20084,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1443b <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1496f <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,94,76,2,0 // vmovapd 0x24c5e(%rip),%ymm10 # 39020 <_sk_srcover_bgra_8888_sse2_lowp+0x868>
+ .byte 197,125,40,21,234,79,2,0 // vmovapd 0x24fea(%rip),%ymm10 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x868>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,12,71,2,0 // vbroadcastss 0x2470c(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,152,74,2,0 // vbroadcastss 0x24a98(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -19852,21 +20116,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 143ba <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 148ee <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 144f0 <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14a24 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 143ba <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 148ee <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 143ba <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 148ee <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -19880,9 +20144,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 143ba <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 148ee <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 144f1 <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 14a25 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -19915,12 +20179,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 145b3 <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 14ae7 <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,6,75,2,0 // vmovapd 0x24b06(%rip),%ymm10 # 39040 <_sk_srcover_bgra_8888_sse2_lowp+0x888>
+ .byte 197,125,40,21,146,78,2,0 // vmovapd 0x24e92(%rip),%ymm10 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x888>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,148,69,2,0 // vbroadcastss 0x24594(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,32,73,2,0 // vbroadcastss 0x24920(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -19947,21 +20211,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14532 <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 14a66 <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14668 <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14b9c <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14532 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 14a66 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14532 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 14a66 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -19975,9 +20239,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 14532 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 14a66 <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14669 <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 14b9d <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20055,10 +20319,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,216,72,2,0 // vmovaps 0x248d8(%rip),%ymm10 # 39060 <_sk_srcover_bgra_8888_sse2_lowp+0x8a8>
+ .byte 197,124,40,21,100,76,2,0 // vmovaps 0x24c64(%rip),%ymm10 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x8a8>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,70,67,2,0 // vbroadcastss 0x24346(%rip),%ymm9 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,210,70,2,0 // vbroadcastss 0x246d2(%rip),%ymm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -20095,7 +20359,7 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,114,66,2,0 // vbroadcastss 0x24272(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,254,69,2,0 // vbroadcastss 0x245fe(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -20120,7 +20384,7 @@ _sk_store_8888_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 148b0 <_sk_store_8888_avx+0xae>
+ .byte 117,10 // jne 14de4 <_sk_store_8888_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20128,17 +20392,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 148ac <_sk_store_8888_avx+0xaa>
+ .byte 119,236 // ja 14de0 <_sk_store_8888_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14920 <_sk_store_8888_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14e54 <_sk_store_8888_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 148ac <_sk_store_8888_avx+0xaa>
+ .byte 235,208 // jmp 14de0 <_sk_store_8888_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 148ac <_sk_store_8888_avx+0xaa>
+ .byte 235,192 // jmp 14de0 <_sk_store_8888_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20146,7 +20410,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 148ac <_sk_store_8888_avx+0xaa>
+ .byte 235,143 // jmp 14de0 <_sk_store_8888_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -20158,7 +20422,7 @@ _sk_store_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb014934 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdc17c>
+ .byte 232,255,255,255,218 // callq ffffffffdb014e68 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdbdf0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -20178,12 +20442,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 149e3 <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 14f17 <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,22,71,2,0 // vmovapd 0x24716(%rip),%ymm10 # 39080 <_sk_srcover_bgra_8888_sse2_lowp+0x8c8>
+ .byte 197,125,40,21,162,74,2,0 // vmovapd 0x24aa2(%rip),%ymm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x8c8>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,100,65,2,0 // vbroadcastss 0x24164(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,240,68,2,0 // vbroadcastss 0x244f0(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20210,21 +20474,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14962 <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 14e96 <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14a98 <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14fcc <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14962 <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 14e96 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14962 <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 14e96 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20238,9 +20502,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 14962 <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 14e96 <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14a99 <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 14fcd <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20273,12 +20537,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 14b5b <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1508f <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,190,69,2,0 // vmovapd 0x245be(%rip),%ymm10 # 390a0 <_sk_srcover_bgra_8888_sse2_lowp+0x8e8>
+ .byte 197,125,40,21,74,73,2,0 // vmovapd 0x2494a(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x8e8>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,236,63,2,0 // vbroadcastss 0x23fec(%rip),%ymm8 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,120,67,2,0 // vbroadcastss 0x24378(%rip),%ymm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -20305,21 +20569,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14ada <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 1500e <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14c10 <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15144 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14ada <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 1500e <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14ada <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 1500e <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -20333,9 +20597,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 14ada <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 1500e <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14c11 <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 15145 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20413,10 +20677,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,144,67,2,0 // vmovaps 0x24390(%rip),%ymm9 # 390c0 <_sk_srcover_bgra_8888_sse2_lowp+0x908>
+ .byte 197,124,40,13,28,71,2,0 // vmovaps 0x2471c(%rip),%ymm9 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x908>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,158,61,2,0 // vbroadcastss 0x23d9e(%rip),%ymm10 # 38ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,21,42,65,2,0 // vbroadcastss 0x2412a(%rip),%ymm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -20453,7 +20717,7 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,202,60,2,0 // vbroadcastss 0x23cca(%rip),%ymm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,86,64,2,0 // vbroadcastss 0x24056(%rip),%ymm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -20478,7 +20742,7 @@ _sk_store_bgra_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14e58 <_sk_store_bgra_avx+0xae>
+ .byte 117,10 // jne 1538c <_sk_store_bgra_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20486,17 +20750,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14e54 <_sk_store_bgra_avx+0xaa>
+ .byte 119,236 // ja 15388 <_sk_store_bgra_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14ec8 <_sk_store_bgra_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 153fc <_sk_store_bgra_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 14e54 <_sk_store_bgra_avx+0xaa>
+ .byte 235,208 // jmp 15388 <_sk_store_bgra_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 14e54 <_sk_store_bgra_avx+0xaa>
+ .byte 235,192 // jmp 15388 <_sk_store_bgra_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20504,7 +20768,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 14e54 <_sk_store_bgra_avx+0xaa>
+ .byte 235,143 // jmp 15388 <_sk_store_bgra_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -20516,7 +20780,7 @@ _sk_store_bgra_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb014edc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdc724>
+ .byte 232,255,255,255,218 // callq ffffffffdb015410 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdc398>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -20541,7 +20805,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 1513f <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 15673 <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -20558,14 +20822,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,111,76,2,0 // vmovddup 0x24c6f(%rip),%xmm10 # 39be8 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 197,123,18,21,251,79,2,0 // vmovddup 0x24ffb(%rip),%xmm10 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,105,60,2,0 // vbroadcastss 0x23c69(%rip),%xmm11 # 38bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,29,245,63,2,0 // vbroadcastss 0x23ff5(%rip),%xmm11 # 394b0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,78,76,2,0 // vmovddup 0x24c4e(%rip),%xmm12 # 39bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
+ .byte 197,123,18,37,218,79,2,0 // vmovddup 0x24fda(%rip),%xmm12 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -20574,7 +20838,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,35,60,2,0 // vbroadcastss 0x23c23(%rip),%xmm3 # 38bf4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,29,175,63,2,0 // vbroadcastss 0x23faf(%rip),%xmm3 # 394b4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -20653,29 +20917,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 151a5 <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 156d9 <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 151a5 <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 156d9 <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 151b2 <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 156e6 <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 151b2 <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 156e6 <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 14f3b <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 1546f <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 14f3b <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 1546f <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 14f3b <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 1546f <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 14f3b <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 1546f <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 14f3b <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 1546f <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -20694,7 +20958,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 15416 <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 1594a <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -20711,14 +20975,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,152,73,2,0 // vmovddup 0x24998(%rip),%xmm10 # 39be8 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 197,123,18,21,36,77,2,0 // vmovddup 0x24d24(%rip),%xmm10 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,146,57,2,0 // vbroadcastss 0x23992(%rip),%xmm11 # 38bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,29,30,61,2,0 // vbroadcastss 0x23d1e(%rip),%xmm11 # 394b0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,119,73,2,0 // vmovddup 0x24977(%rip),%xmm12 # 39bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
+ .byte 197,123,18,37,3,77,2,0 // vmovddup 0x24d03(%rip),%xmm12 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -20727,7 +20991,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,76,57,2,0 // vbroadcastss 0x2394c(%rip),%xmm7 # 38bf4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,61,216,60,2,0 // vbroadcastss 0x23cd8(%rip),%xmm7 # 394b4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -20806,29 +21070,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 1547c <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 159b0 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 1547c <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 159b0 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 15489 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 159bd <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 15489 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 159bd <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 15212 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 15746 <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 15212 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 15746 <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 15212 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 15746 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 15212 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 15746 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 15212 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 15746 <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -20907,14 +21171,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,254,69,2,0 // vmovddup 0x245fe(%rip),%xmm11 # 39be8 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 197,123,18,29,138,73,2,0 // vmovddup 0x2498a(%rip),%xmm11 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,248,53,2,0 // vbroadcastss 0x235f8(%rip),%xmm12 # 38bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,37,132,57,2,0 // vbroadcastss 0x23984(%rip),%xmm12 # 394b0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,221,69,2,0 // vmovddup 0x245dd(%rip),%xmm13 # 39bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
+ .byte 197,123,18,45,105,73,2,0 // vmovddup 0x24969(%rip),%xmm13 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -20923,7 +21187,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,178,53,2,0 // vbroadcastss 0x235b2(%rip),%xmm3 # 38bf4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,29,62,57,2,0 // vbroadcastss 0x2393e(%rip),%xmm3 # 394b4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21013,12 +21277,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,212,51,2,0 // vbroadcastss 0x233d4(%rip),%ymm8 # 38bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,96,55,2,0 // vbroadcastss 0x23760(%rip),%ymm8 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,14,52,2,0 // vbroadcastss 0x2340e(%rip),%ymm10 # 38bf8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,21,154,55,2,0 // vbroadcastss 0x2379a(%rip),%ymm10 # 394b8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,254,51,2,0 // vbroadcastss 0x233fe(%rip),%xmm9 # 38bfc <_sk_srcover_bgra_8888_sse2_lowp+0x444>
+ .byte 196,98,121,24,13,138,55,2,0 // vbroadcastss 0x2378a(%rip),%xmm9 # 394bc <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -21029,7 +21293,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,193,51,2,0 // vbroadcastss 0x233c1(%rip),%xmm11 # 38c00 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
+ .byte 196,98,121,24,29,77,55,2,0 // vbroadcastss 0x2374d(%rip),%xmm11 # 394c0 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -21112,7 +21376,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 15a16 <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 15f4a <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -21128,22 +21392,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 159ed <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 15f21 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 159ed <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 15f21 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je 159ed <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 15f21 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 159ed <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 15f21 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je 159ed <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 15f21 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 159ed <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 15f21 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp 159ed <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 15f21 <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -21158,7 +21422,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 15b97 <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 160cb <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -21180,7 +21444,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,0,48,2,0 // vbroadcastss 0x23000(%rip),%ymm9 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,140,51,2,0 // vbroadcastss 0x2338c(%rip),%ymm9 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21217,29 +21481,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 15bfd <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 16131 <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 15bfd <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 16131 <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 15c0a <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 1613e <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 15c0a <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 1613e <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 15aa6 <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 15fda <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 15aa6 <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 15fda <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 15aa6 <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 15fda <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 15aa6 <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 15fda <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 15aa6 <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 15fda <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -21256,7 +21520,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 15d3b <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 1626f <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -21284,7 +21548,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,47,46,2,0 // vbroadcastss 0x22e2f(%rip),%ymm9 # 38afc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,187,49,2,0 // vbroadcastss 0x231bb(%rip),%ymm9 # 393bc <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -21306,69 +21570,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,47,45,2,0 // vbroadcastss 0x22d2f(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,187,48,2,0 // vbroadcastss 0x230bb(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 15d73 <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 162a7 <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 15c73 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 161a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 15dbd <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 162f1 <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 15dd7 <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 1630b <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 15c73 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 161a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 15c73 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 161a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 15e18 <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 1634c <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 15e29 <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 1635d <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 15c73 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 161a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 15c73 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 161a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 15e5c <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 16390 <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 15c73 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 161a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 15c73 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 161a7 <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -21382,7 +21646,7 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,248,44,2,0 // vbroadcastss 0x22cf8(%rip),%ymm8 # 38b84 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,5,132,48,2,0 // vbroadcastss 0x23084(%rip),%ymm8 # 39444 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -21420,7 +21684,7 @@ _sk_store_u16_be_avx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 15f70 <_sk_store_u16_be_avx+0x10b>
+ .byte 117,31 // jne 164a4 <_sk_store_u16_be_avx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -21429,22 +21693,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 15f6c <_sk_store_u16_be_avx+0x107>
+ .byte 116,240 // je 164a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 15f6c <_sk_store_u16_be_avx+0x107>
+ .byte 114,227 // jb 164a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 15f6c <_sk_store_u16_be_avx+0x107>
+ .byte 116,218 // je 164a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 15f6c <_sk_store_u16_be_avx+0x107>
+ .byte 114,205 // jb 164a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 15f6c <_sk_store_u16_be_avx+0x107>
+ .byte 116,196 // je 164a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 15f6c <_sk_store_u16_be_avx+0x107>
+ .byte 114,183 // jb 164a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 15f6c <_sk_store_u16_be_avx+0x107>
+ .byte 235,174 // jmp 164a0 <_sk_store_u16_be_avx+0x107>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -21453,7 +21717,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 1612f <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 16663 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -21466,7 +21730,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 16140 <_sk_load_f32_avx+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 16674 <_sk_load_f32_avx+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -21529,7 +21793,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 16109 <_sk_load_f32_avx+0x14b>
+ .byte 235,203 // jmp 1663d <_sk_load_f32_avx+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -21541,7 +21805,7 @@ _sk_load_f32_avx:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2901615c <_sk_srcover_bgra_8888_sse2_lowp+0x28fdd9a4>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29016690 <_sk_srcover_bgra_8888_sse2_lowp+0x28fdd618>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21553,7 +21817,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 162d1 <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 16805 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -21566,7 +21830,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 162e0 <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 16814 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -21629,7 +21893,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 162ab <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 167df <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21669,7 +21933,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 1637f <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 168b3 <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -21682,22 +21946,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1637b <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 168af <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1637b <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 168af <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 1637b <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 168af <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 1637b <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 168af <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 1637b <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 168af <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 1637b <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 168af <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 1637b <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 168af <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -21740,7 +22004,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,21,38,2,0 // vmulss 0x22615(%rip),%xmm9,%xmm0 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,161,41,2,0 // vmulss 0x229a1(%rip),%xmm9,%xmm0 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -21767,7 +22031,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,171,37,2,0 // vmulss 0x225ab(%rip),%xmm9,%xmm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,55,41,2,0 // vmulss 0x22937(%rip),%xmm9,%xmm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -21787,7 +22051,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,104,37,2,0 // vbroadcastss 0x22568(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,244,40,2,0 // vbroadcastss 0x228f4(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21800,7 +22064,7 @@ _sk_repeat_x_1_avx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,66,37,2,0 // vbroadcastss 0x22542(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,206,40,2,0 // vbroadcastss 0x228ce(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21809,9 +22073,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,72,37,2,0 // vbroadcastss 0x22548(%rip),%ymm8 # 38a80 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,212,40,2,0 // vbroadcastss 0x228d4(%rip),%ymm8 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,30,37,2,0 // vbroadcastss 0x2251e(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,170,40,2,0 // vbroadcastss 0x228aa(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -21821,7 +22085,7 @@ _sk_mirror_x_1_avx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,238,36,2,0 // vbroadcastss 0x224ee(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,122,40,2,0 // vbroadcastss 0x2287a(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21830,12 +22094,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,0,38,2,0 // vbroadcastss 0x22600(%rip),%ymm3 # 38b8c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,226,125,24,29,140,41,2,0 // vbroadcastss 0x2298c(%rip),%ymm3 # 3944c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,239,37,2,0 // vbroadcastss 0x225ef(%rip),%ymm3 # 38b88 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,123,41,2,0 // vbroadcastss 0x2297b(%rip),%ymm3 # 39448 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,230,37,2,0 // vbroadcastss 0x225e6(%rip),%ymm1 # 38b90 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,13,114,41,2,0 // vbroadcastss 0x22972(%rip),%ymm1 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22083,9 +22347,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 1694e <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 16e82 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 16963 <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 16e97 <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -22253,12 +22517,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 16cfd <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 17231 <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,167,29,2,0 // vbroadcastss 0x21da7(%rip),%ymm10 # 38a6c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,51,33,2,0 // vbroadcastss 0x22133(%rip),%ymm10 # 3932c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -22270,7 +22534,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 16cc9 <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 171fd <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -22452,27 +22716,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,193,26,2,0 // vbroadcastss 0x21ac1(%rip),%ymm13 # 38b94 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,45,77,30,2,0 // vbroadcastss 0x21e4d(%rip),%ymm13 # 39454 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,183,26,2,0 // vbroadcastss 0x21ab7(%rip),%ymm14 # 38b98 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,53,67,30,2,0 // vbroadcastss 0x21e43(%rip),%ymm14 # 39458 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,168,26,2,0 // vbroadcastss 0x21aa8(%rip),%ymm14 # 38b9c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,52,30,2,0 // vbroadcastss 0x21e34(%rip),%ymm14 # 3945c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,153,26,2,0 // vbroadcastss 0x21a99(%rip),%ymm13 # 38ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,37,30,2,0 // vbroadcastss 0x21e25(%rip),%ymm13 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,132,26,2,0 // vbroadcastss 0x21a84(%rip),%ymm10 # 38ba4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,16,30,2,0 // vbroadcastss 0x21e10(%rip),%ymm10 # 39464 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,42,25,2,0 // vbroadcastss 0x2192a(%rip),%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,182,28,2,0 // vbroadcastss 0x21cb6(%rip),%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,20,25,2,0 // vbroadcastss 0x21914(%rip),%ymm10 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,160,28,2,0 // vbroadcastss 0x21ca0(%rip),%ymm10 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -22502,7 +22766,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,250,25,2,0 // vbroadcastss 0x219fa(%rip),%ymm11 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,134,29,2,0 // vbroadcastss 0x21d86(%rip),%ymm11 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -22511,7 +22775,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,206,25,2,0 // vbroadcastss 0x219ce(%rip),%ymm9 # 38bac <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,90,29,2,0 // vbroadcastss 0x21d5a(%rip),%ymm9 # 3946c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
@@ -22519,7 +22783,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,91,24,2,0 // vbroadcastss 0x2185b(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,231,27,2,0 // vbroadcastss 0x21be7(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22536,7 +22800,7 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,103,25,2,0 // vbroadcastss 0x21967(%rip),%ymm11 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,243,28,2,0 // vbroadcastss 0x21cf3(%rip),%ymm11 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -22545,17 +22809,17 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,59,25,2,0 // vbroadcastss 0x2193b(%rip),%ymm9 # 38bac <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,199,28,2,0 // vbroadcastss 0x21cc7(%rip),%ymm9 # 3946c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,25,25,2,0 // vbroadcastss 0x21919(%rip),%ymm9 # 38bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,165,28,2,0 // vbroadcastss 0x21ca5(%rip),%ymm9 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,187,23,2,0 // vbroadcastss 0x217bb(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,71,27,2,0 // vbroadcastss 0x21b47(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22571,7 +22835,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,205,24,2,0 // vbroadcastss 0x218cd(%rip),%ymm10 # 38ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,89,28,2,0 // vbroadcastss 0x21c59(%rip),%ymm10 # 39468 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -22580,7 +22844,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,165,24,2,0 // vbroadcastss 0x218a5(%rip),%ymm8 # 38bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,49,28,2,0 // vbroadcastss 0x21c31(%rip),%ymm8 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22624,7 +22888,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,223,22,2,0 // vbroadcastss 0x216df(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,107,26,2,0 // vbroadcastss 0x21a6b(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -22661,9 +22925,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,177,23,2,0 // vbroadcastss 0x217b1(%rip),%ymm0 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,61,27,2,0 // vbroadcastss 0x21b3d(%rip),%ymm0 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,88,22,2,0 // vbroadcastss 0x21658(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,228,25,2,0 // vbroadcastss 0x219e4(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22674,7 +22938,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,53,22,2,0 // vbroadcastss 0x21635(%rip),%ymm0 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,193,25,2,0 // vbroadcastss 0x219c1(%rip),%ymm0 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -22686,9 +22950,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,98,23,2,0 // vbroadcastss 0x21762(%rip),%ymm1 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,238,26,2,0 // vbroadcastss 0x21aee(%rip),%ymm1 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,8,22,2,0 // vbroadcastss 0x21608(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,148,25,2,0 // vbroadcastss 0x21994(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22699,7 +22963,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,229,21,2,0 // vbroadcastss 0x215e5(%rip),%ymm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,113,25,2,0 // vbroadcastss 0x21971(%rip),%ymm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -22711,14 +22975,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,21,23,2,0 // vbroadcastss 0x21715(%rip),%ymm0 # 38bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,161,26,2,0 // vbroadcastss 0x21aa1(%rip),%ymm0 # 39478 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,184,21,2,0 // vbroadcastss 0x215b8(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,68,25,2,0 // vbroadcastss 0x21944(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,246,22,2,0 // vbroadcastss 0x216f6(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,130,26,2,0 // vbroadcastss 0x21a82(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,8,22,2,0 // vbroadcastss 0x21608(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,148,25,2,0 // vbroadcastss 0x21994(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -22730,19 +22994,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,191,22,2,0 // vbroadcastss 0x216bf(%rip),%ymm0 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,75,26,2,0 // vbroadcastss 0x21a4b(%rip),%ymm0 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,102,21,2,0 // vbroadcastss 0x21566(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,242,24,2,0 // vbroadcastss 0x218f2(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,173,22,2,0 // vbroadcastss 0x216ad(%rip),%ymm9 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,57,26,2,0 // vbroadcastss 0x21a39(%rip),%ymm9 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,163,22,2,0 // vbroadcastss 0x216a3(%rip),%ymm10 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,47,26,2,0 // vbroadcastss 0x21a2f(%rip),%ymm10 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,48,21,2,0 // vbroadcastss 0x21530(%rip),%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,188,24,2,0 // vbroadcastss 0x218bc(%rip),%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,129,22,2,0 // vbroadcastss 0x21681(%rip),%ymm9 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,13,26,2,0 // vbroadcastss 0x21a0d(%rip),%ymm9 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22753,17 +23017,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,1,21,2,0 // vbroadcastss 0x21501(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,141,24,2,0 // vbroadcastss 0x2188d(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,72,22,2,0 // vbroadcastss 0x21648(%rip),%ymm10 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,212,25,2,0 // vbroadcastss 0x219d4(%rip),%ymm10 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,62,22,2,0 // vbroadcastss 0x2163e(%rip),%ymm11 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,202,25,2,0 // vbroadcastss 0x219ca(%rip),%ymm11 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,37,22,2,0 // vbroadcastss 0x21625(%rip),%ymm9 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,177,25,2,0 // vbroadcastss 0x219b1(%rip),%ymm9 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22774,13 +23038,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,5,22,2,0 // vbroadcastss 0x21605(%rip),%ymm0 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,145,25,2,0 // vbroadcastss 0x21991(%rip),%ymm0 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,227,21,2,0 // vbroadcastss 0x215e3(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,111,25,2,0 // vbroadcastss 0x2196f(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,245,20,2,0 // vbroadcastss 0x214f5(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,129,24,2,0 // vbroadcastss 0x21881(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -22792,14 +23056,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,176,21,2,0 // vbroadcastss 0x215b0(%rip),%ymm1 # 38bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,60,25,2,0 // vbroadcastss 0x2193c(%rip),%ymm1 # 39478 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,82,20,2,0 // vbroadcastss 0x21452(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,222,23,2,0 // vbroadcastss 0x217de(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,144,21,2,0 // vbroadcastss 0x21590(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,28,25,2,0 // vbroadcastss 0x2191c(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,162,20,2,0 // vbroadcastss 0x214a2(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,46,24,2,0 // vbroadcastss 0x2182e(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -22811,19 +23075,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,89,21,2,0 // vbroadcastss 0x21559(%rip),%ymm1 # 38bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,229,24,2,0 // vbroadcastss 0x218e5(%rip),%ymm1 # 39474 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,255,19,2,0 // vbroadcastss 0x213ff(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,139,23,2,0 // vbroadcastss 0x2178b(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,70,21,2,0 // vbroadcastss 0x21546(%rip),%ymm9 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,210,24,2,0 // vbroadcastss 0x218d2(%rip),%ymm9 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,60,21,2,0 // vbroadcastss 0x2153c(%rip),%ymm10 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,200,24,2,0 // vbroadcastss 0x218c8(%rip),%ymm10 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,201,19,2,0 // vbroadcastss 0x213c9(%rip),%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,85,23,2,0 // vbroadcastss 0x21755(%rip),%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,26,21,2,0 // vbroadcastss 0x2151a(%rip),%ymm9 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,166,24,2,0 // vbroadcastss 0x218a6(%rip),%ymm9 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22834,17 +23098,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,154,19,2,0 // vbroadcastss 0x2139a(%rip),%ymm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,38,23,2,0 // vbroadcastss 0x21726(%rip),%ymm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,224,20,2,0 // vbroadcastss 0x214e0(%rip),%ymm10 # 38bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,108,24,2,0 // vbroadcastss 0x2186c(%rip),%ymm10 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,214,20,2,0 // vbroadcastss 0x214d6(%rip),%ymm11 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,98,24,2,0 // vbroadcastss 0x21862(%rip),%ymm11 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,189,20,2,0 // vbroadcastss 0x214bd(%rip),%ymm9 # 38bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,73,24,2,0 // vbroadcastss 0x21849(%rip),%ymm9 # 39488 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22855,13 +23119,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,157,20,2,0 // vbroadcastss 0x2149d(%rip),%ymm1 # 38bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,41,24,2,0 // vbroadcastss 0x21829(%rip),%ymm1 # 39484 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,122,20,2,0 // vbroadcastss 0x2147a(%rip),%ymm10 # 38bbc <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,6,24,2,0 // vbroadcastss 0x21806(%rip),%ymm10 # 3947c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,140,19,2,0 // vbroadcastss 0x2138c(%rip),%ymm10 # 38adc <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,24,23,2,0 // vbroadcastss 0x21718(%rip),%ymm10 # 3939c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23009,7 +23273,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,18,18,2,0 // vbroadcastss 0x21212(%rip),%xmm4 # 38bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,226,121,24,37,158,21,2,0 // vbroadcastss 0x2159e(%rip),%xmm4 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -23063,7 +23327,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,139,15,2,0 // vbroadcastss 0x20f8b(%rip),%xmm10 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,23,19,2,0 // vbroadcastss 0x21317(%rip),%xmm10 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -23091,7 +23355,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,79,16,2,0 // vbroadcastss 0x2104f(%rip),%ymm7 # 38bcc <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,61,219,19,2,0 // vbroadcastss 0x213db(%rip),%ymm7 # 3948c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -23834,7 +24098,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,19,1,2,0 // vbroadcastss 0x20113(%rip),%xmm9 # 38bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,121,24,13,159,4,2,0 // vbroadcastss 0x2049f(%rip),%xmm9 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -23891,7 +24155,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,124,254,1,0 // vbroadcastss 0x1fe7c(%rip),%xmm10 # 38a74 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,8,2,2,0 // vbroadcastss 0x20208(%rip),%xmm10 # 39334 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -23919,7 +24183,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,64,255,1,0 // vbroadcastss 0x1ff40(%rip),%ymm12 # 38bcc <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,37,204,2,2,0 // vbroadcastss 0x202cc(%rip),%ymm12 # 3948c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -25317,7 +25581,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,157,224,1,0 // vbroadcastss 0x1e09d(%rip),%ymm3 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,41,228,1,0 // vbroadcastss 0x1e429(%rip),%ymm3 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -25333,18 +25597,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,204,225,1,0 // vbroadcastss 0x1e1cc(%rip),%ymm0 # 38bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,88,229,1,0 // vbroadcastss 0x1e558(%rip),%ymm0 # 39494 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,195,225,1,0 // vbroadcastss 0x1e1c3(%rip),%ymm1 # 38bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,79,229,1,0 // vbroadcastss 0x1e54f(%rip),%ymm1 # 39498 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,182,225,1,0 // vbroadcastss 0x1e1b6(%rip),%ymm1 # 38bdc <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,13,66,229,1,0 // vbroadcastss 0x1e542(%rip),%ymm1 # 3949c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,169,225,1,0 // vbroadcastss 0x1e1a9(%rip),%ymm1 # 38be0 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,53,229,1,0 // vbroadcastss 0x1e535(%rip),%ymm1 # 394a0 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,156,225,1,0 // vbroadcastss 0x1e19c(%rip),%ymm1 # 38be4 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,13,40,229,1,0 // vbroadcastss 0x1e528(%rip),%ymm1 # 394a4 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -25373,13 +25637,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1ab12 <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1b046 <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1aae0 <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1b014 <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -25398,10 +25662,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1aaa9 <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1afdd <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1ab09 <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1b03d <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -25415,7 +25679,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1aa9b <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1afcf <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -25444,9 +25708,9 @@ _sk_seed_shader_sse41:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,87,232,1,0 // addps 0x1e857(%rip),%xmm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,227,235,1,0 // addps 0x1ebe3(%rip),%xmm1 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,94,232,1,0 // movaps 0x1e85e(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,234,235,1,0 // movaps 0x1ebea(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -25461,18 +25725,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,7,232,1,0 // paddd 0x1e807(%rip),%xmm8 # 39380 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
+ .byte 102,68,15,254,5,147,235,1,0 // paddd 0x1eb93(%rip),%xmm8 # 39c40 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,46,232,1,0 // movdqa 0x1e82e(%rip),%xmm10 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
+ .byte 102,68,15,111,21,186,235,1,0 // movdqa 0x1ebba(%rip),%xmm10 # 39c80 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,26,232,1,0 // movdqa 0x1e81a(%rip),%xmm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
- .byte 102,68,15,111,45,33,232,1,0 // movdqa 0x1e821(%rip),%xmm13 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,37,166,235,1,0 // movdqa 0x1eba6(%rip),%xmm12 # 39c90 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,45,173,235,1,0 // movdqa 0x1ebad(%rip),%xmm13 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -25488,8 +25752,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,220,231,1,0 // mulps 0x1e7dc(%rip),%xmm8 # 393f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- .byte 68,15,88,5,228,231,1,0 // addps 0x1e7e4(%rip),%xmm8 # 39400 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,89,5,104,235,1,0 // mulps 0x1eb68(%rip),%xmm8 # 39cb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
+ .byte 68,15,88,5,112,235,1,0 // addps 0x1eb70(%rip),%xmm8 # 39cc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -25531,7 +25795,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,26,231,1,0 // movaps 0x1e71a(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,166,234,1,0 // movaps 0x1eaa6(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -25542,7 +25806,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,6,231,1,0 // movaps 0x1e706(%rip),%xmm0 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,5,146,234,1,0 // movaps 0x1ea92(%rip),%xmm0 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -25588,7 +25852,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,182,230,1,0 // movaps 0x1e6b6(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,66,234,1,0 // movaps 0x1ea42(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -25613,7 +25877,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,105,230,1,0 // movaps 0x1e669(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,245,233,1,0 // movaps 0x1e9f5(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -25660,7 +25924,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,253,229,1,0 // movaps 0x1e5fd(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,137,233,1,0 // movaps 0x1e989(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -25673,7 +25937,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,221,229,1,0 // movaps 0x1e5dd(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,105,233,1,0 // movaps 0x1e969(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -25690,7 +25954,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,176,229,1,0 // movaps 0x1e5b0(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,60,233,1,0 // movaps 0x1e93c(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -25710,7 +25974,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,116,229,1,0 // movaps 0x1e574(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,0,233,1,0 // movaps 0x1e900(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -25738,7 +26002,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,56,229,1,0 // movaps 0x1e538(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,196,232,1,0 // movaps 0x1e8c4(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -25776,7 +26040,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,185,228,1,0 // movaps 0x1e4b9(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,69,232,1,0 // movaps 0x1e845(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -25818,7 +26082,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,69,228,1,0 // movaps 0x1e445(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,209,231,1,0 // movaps 0x1e7d1(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -25866,7 +26130,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,160,227,1,0 // movaps 0x1e3a0(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,44,231,1,0 // movaps 0x1e72c(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -25900,7 +26164,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,53,227,1,0 // movaps 0x1e335(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,193,230,1,0 // movaps 0x1e6c1(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -25937,7 +26201,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,191,226,1,0 // movaps 0x1e2bf(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,75,230,1,0 // movaps 0x1e64b(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -25965,7 +26229,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,111,226,1,0 // movaps 0x1e26f(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,251,229,1,0 // movaps 0x1e5fb(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -25977,7 +26241,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,86,226,1,0 // movaps 0x1e256(%rip),%xmm11 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,29,226,229,1,0 // movaps 0x1e5e2(%rip),%xmm11 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -26061,7 +26325,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,32,225,1,0 // movaps 0x1e120(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,172,228,1,0 // movaps 0x1e4ac(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -26143,7 +26407,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,235,223,1,0 // movaps 0x1dfeb(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,119,227,1,0 // movaps 0x1e377(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -26226,7 +26490,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,192,222,1,0 // movaps 0x1dec0(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,76,226,1,0 // movaps 0x1e24c(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -26311,7 +26575,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,135,221,1,0 // movaps 0x1dd87(%rip),%xmm1 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,13,19,225,1,0 // movaps 0x1e113(%rip),%xmm1 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -26324,10 +26588,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,181,221,1,0 // movaps 0x1ddb5(%rip),%xmm13 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,45,65,225,1,0 // movaps 0x1e141(%rip),%xmm13 # 39cd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,181,221,1,0 // movaps 0x1ddb5(%rip),%xmm12 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,37,65,225,1,0 // movaps 0x1e141(%rip),%xmm12 # 39ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -26513,12 +26777,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,32,219,1,0 // movaps 0x1db20(%rip),%xmm0 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 15,40,5,172,222,1,0 // movaps 0x1deac(%rip),%xmm0 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,37,219,1,0 // movaps 0x1db25(%rip),%xmm2 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 15,40,21,177,222,1,0 // movaps 0x1deb1(%rip),%xmm2 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,38,219,1,0 // movaps 0x1db26(%rip),%xmm14 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,53,178,222,1,0 // movaps 0x1deb2(%rip),%xmm14 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -26601,7 +26865,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,58,217,1,0 // movaps 0x1d93a(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,198,220,1,0 // movaps 0x1dcc6(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -26695,14 +26959,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,100,216,1,0 // movaps 0x1d864(%rip),%xmm2 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 15,40,21,240,219,1,0 // movaps 0x1dbf0(%rip),%xmm2 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,103,216,1,0 // movaps 0x1d867(%rip),%xmm1 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 15,40,13,243,219,1,0 // movaps 0x1dbf3(%rip),%xmm1 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,102,216,1,0 // movaps 0x1d866(%rip),%xmm13 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,45,242,219,1,0 // movaps 0x1dbf2(%rip),%xmm13 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -26783,7 +27047,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,124,214,1,0 // movaps 0x1d67c(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,8,218,1,0 // movaps 0x1da08(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -26838,14 +27102,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,55,214,1,0 // movaps 0x1d637(%rip),%xmm9 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,13,195,217,1,0 // movaps 0x1d9c3(%rip),%xmm9 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,55,214,1,0 // movaps 0x1d637(%rip),%xmm10 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,21,195,217,1,0 // movaps 0x1d9c3(%rip),%xmm10 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,52,214,1,0 // movaps 0x1d634(%rip),%xmm11 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,29,192,217,1,0 // movaps 0x1d9c0(%rip),%xmm11 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -26930,7 +27194,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,64,212,1,0 // movaps 0x1d440(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,204,215,1,0 // movaps 0x1d7cc(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -26982,13 +27246,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,8,212,1,0 // movaps 0x1d408(%rip),%xmm8 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,5,148,215,1,0 // movaps 0x1d794(%rip),%xmm8 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,12,212,1,0 // movaps 0x1d40c(%rip),%xmm10 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,21,152,215,1,0 // movaps 0x1d798(%rip),%xmm10 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,10,212,1,0 // movaps 0x1d40a(%rip),%xmm12 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,37,150,215,1,0 // movaps 0x1d796(%rip),%xmm12 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -27073,7 +27337,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,16,210,1,0 // movaps 0x1d210(%rip),%xmm0 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,5,156,213,1,0 // movaps 0x1d59c(%rip),%xmm0 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -27118,23 +27382,23 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 1c308 <_sk_srcover_rgba_8888_sse41+0xfb>
+ .byte 15,133,219,0,0,0 // jne 1c83c <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,34,210,1,0 // movdqa 0x1d222(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,37,174,213,1,0 // movdqa 0x1d5ae(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,30,210,1,0 // pshufb 0x1d21e(%rip),%xmm5 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,45,170,213,1,0 // pshufb 0x1d5aa(%rip),%xmm5 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,30,210,1,0 // pshufb 0x1d21e(%rip),%xmm6 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,53,170,213,1,0 // pshufb 0x1d5aa(%rip),%xmm6 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,59,209,1,0 // movaps 0x1d13b(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,199,212,1,0 // movaps 0x1d4c7(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,15,210,1,0 // movaps 0x1d20f(%rip),%xmm12 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,37,155,213,1,0 // movaps 0x1d59b(%rip),%xmm12 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27160,7 +27424,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 1c346 <_sk_srcover_rgba_8888_sse41+0x139>
+ .byte 117,88 // jne 1c87a <_sk_srcover_rgba_8888_sse41+0x139>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -27171,32 +27435,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1c370 <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 116,91 // je 1c8a4 <_sk_srcover_rgba_8888_sse41+0x163>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1c335 <_sk_srcover_rgba_8888_sse41+0x128>
+ .byte 116,22 // je 1c869 <_sk_srcover_rgba_8888_sse41+0x128>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 1c233 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 15,133,10,255,255,255 // jne 1c767 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 1c233 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,237,254,255,255 // jmpq 1c767 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1c37b <_sk_srcover_rgba_8888_sse41+0x16e>
+ .byte 116,40 // je 1c8af <_sk_srcover_rgba_8888_sse41+0x16e>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1c368 <_sk_srcover_rgba_8888_sse41+0x15b>
+ .byte 116,15 // je 1c89c <_sk_srcover_rgba_8888_sse41+0x15b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 1c2f4 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 117,149 // jne 1c828 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 1c2f4 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 235,132 // jmp 1c828 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 1c233 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,184,254,255,255 // jmpq 1c767 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1c2f4 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 233,110,255,255,255 // jmpq 1c828 <_sk_srcover_rgba_8888_sse41+0xe7>
HIDDEN _sk_srcover_bgra_8888_sse41
.globl _sk_srcover_bgra_8888_sse41
@@ -27210,23 +27474,23 @@ _sk_srcover_bgra_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 1c481 <_sk_srcover_bgra_8888_sse41+0xfb>
+ .byte 15,133,219,0,0,0 // jne 1c9b5 <_sk_srcover_bgra_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,169,208,1,0 // movdqa 0x1d0a9(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,37,53,212,1,0 // movdqa 0x1d435(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,165,208,1,0 // pshufb 0x1d0a5(%rip),%xmm4 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,37,49,212,1,0 // pshufb 0x1d431(%rip),%xmm4 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,165,208,1,0 // pshufb 0x1d0a5(%rip),%xmm4 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,37,49,212,1,0 // pshufb 0x1d431(%rip),%xmm4 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,194,207,1,0 // movaps 0x1cfc2(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,78,211,1,0 // movaps 0x1d34e(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,150,208,1,0 // movaps 0x1d096(%rip),%xmm12 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,37,34,212,1,0 // movaps 0x1d422(%rip),%xmm12 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27252,7 +27516,7 @@ _sk_srcover_bgra_8888_sse41:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 1c4bf <_sk_srcover_bgra_8888_sse41+0x139>
+ .byte 117,88 // jne 1c9f3 <_sk_srcover_bgra_8888_sse41+0x139>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -27263,32 +27527,32 @@ _sk_srcover_bgra_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1c4e9 <_sk_srcover_bgra_8888_sse41+0x163>
+ .byte 116,91 // je 1ca1d <_sk_srcover_bgra_8888_sse41+0x163>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1c4ae <_sk_srcover_bgra_8888_sse41+0x128>
+ .byte 116,22 // je 1c9e2 <_sk_srcover_bgra_8888_sse41+0x128>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 1c3ac <_sk_srcover_bgra_8888_sse41+0x26>
+ .byte 15,133,10,255,255,255 // jne 1c8e0 <_sk_srcover_bgra_8888_sse41+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 1c3ac <_sk_srcover_bgra_8888_sse41+0x26>
+ .byte 233,237,254,255,255 // jmpq 1c8e0 <_sk_srcover_bgra_8888_sse41+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1c4f4 <_sk_srcover_bgra_8888_sse41+0x16e>
+ .byte 116,40 // je 1ca28 <_sk_srcover_bgra_8888_sse41+0x16e>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1c4e1 <_sk_srcover_bgra_8888_sse41+0x15b>
+ .byte 116,15 // je 1ca15 <_sk_srcover_bgra_8888_sse41+0x15b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 1c46d <_sk_srcover_bgra_8888_sse41+0xe7>
+ .byte 117,149 // jne 1c9a1 <_sk_srcover_bgra_8888_sse41+0xe7>
.byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 1c46d <_sk_srcover_bgra_8888_sse41+0xe7>
+ .byte 235,132 // jmp 1c9a1 <_sk_srcover_bgra_8888_sse41+0xe7>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 1c3ac <_sk_srcover_bgra_8888_sse41+0x26>
+ .byte 233,184,254,255,255 // jmpq 1c8e0 <_sk_srcover_bgra_8888_sse41+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1c46d <_sk_srcover_bgra_8888_sse41+0xe7>
+ .byte 233,110,255,255,255 // jmpq 1c9a1 <_sk_srcover_bgra_8888_sse41+0xe7>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -27306,7 +27570,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,145,206,1,0 // movaps 0x1ce91(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,29,210,1,0 // movaps 0x1d21d(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -27318,7 +27582,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,118,206,1,0 // minps 0x1ce76(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,93,29,2,210,1,0 // minps 0x1d202(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -27329,7 +27593,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,98,206,1,0 // minps 0x1ce62(%rip),%xmm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,93,61,238,209,1,0 // minps 0x1d1ee(%rip),%xmm7 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -27364,7 +27628,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,30,206,1,0 // movaps 0x1ce1e(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,170,209,1,0 // movaps 0x1d1aa(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -27425,10 +27689,10 @@ HIDDEN _sk_unpremul_sse41
.globl _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
- .byte 68,15,40,5,172,205,1,0 // movaps 0x1cdac(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,56,209,1,0 // movaps 0x1d138(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,139,206,1,0,1 // cmpltps 0x1ce8b(%rip),%xmm9 # 394a0 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
+ .byte 68,15,194,13,23,210,1,0,1 // cmpltps 0x1d217(%rip),%xmm9 # 39d60 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -27440,20 +27704,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,127,206,1,0 // movaps 0x1ce7f(%rip),%xmm11 # 394b0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,29,11,210,1,0 // movaps 0x1d20b(%rip),%xmm11 # 39d70 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,231,205,1,0 // movaps 0x1cde7(%rip),%xmm12 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,37,115,209,1,0 // movaps 0x1d173(%rip),%xmm12 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,103,206,1,0 // movaps 0x1ce67(%rip),%xmm13 # 394c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,45,243,209,1,0 // movaps 0x1d1f3(%rip),%xmm13 # 39d80 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,103,206,1,0 // movaps 0x1ce67(%rip),%xmm14 # 394d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,53,243,209,1,0 // movaps 0x1d1f3(%rip),%xmm14 # 39d90 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,107,206,1,0 // movaps 0x1ce6b(%rip),%xmm15 # 394e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
+ .byte 68,15,40,61,247,209,1,0 // movaps 0x1d1f7(%rip),%xmm15 # 39da0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -27490,19 +27754,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,182,205,1,0 // movaps 0x1cdb6(%rip),%xmm11 # 394b0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,29,66,209,1,0 // movaps 0x1d142(%rip),%xmm11 # 39d70 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,31,205,1,0 // movaps 0x1cd1f(%rip),%xmm12 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,37,171,208,1,0 // movaps 0x1d0ab(%rip),%xmm12 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,163,205,1,0 // movaps 0x1cda3(%rip),%xmm13 # 394c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,45,47,209,1,0 // movaps 0x1d12f(%rip),%xmm13 # 39d80 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,164,205,1,0 // movaps 0x1cda4(%rip),%xmm14 # 394d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,53,48,209,1,0 // movaps 0x1d130(%rip),%xmm14 # 39d90 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,168,205,1,0 // movaps 0x1cda8(%rip),%xmm15 # 394e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
+ .byte 68,15,40,61,52,209,1,0 // movaps 0x1d134(%rip),%xmm15 # 39da0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -27546,22 +27810,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,28,205,1,0 // movaps 0x1cd1c(%rip),%xmm11 # 394f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,29,168,208,1,0 // movaps 0x1d0a8(%rip),%xmm11 # 39db0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,28,205,1,0 // movaps 0x1cd1c(%rip),%xmm12 # 39500 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
+ .byte 68,15,40,37,168,208,1,0 // movaps 0x1d0a8(%rip),%xmm12 # 39dc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,28,205,1,0 // movaps 0x1cd1c(%rip),%xmm10 # 39510 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
+ .byte 68,15,40,21,168,208,1,0 // movaps 0x1d0a8(%rip),%xmm10 # 39dd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,28,205,1,0 // movaps 0x1cd1c(%rip),%xmm13 # 39520 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
+ .byte 68,15,40,45,168,208,1,0 // movaps 0x1d0a8(%rip),%xmm13 # 39de0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,32,205,1,0 // movaps 0x1cd20(%rip),%xmm14 # 39530 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
+ .byte 68,15,40,53,172,208,1,0 // movaps 0x1d0ac(%rip),%xmm14 # 39df0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,28,205,1,0 // movaps 0x1cd1c(%rip),%xmm15 # 39540 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
+ .byte 68,15,40,61,168,208,1,0 // movaps 0x1d0a8(%rip),%xmm15 # 39e00 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -27616,7 +27880,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,195,202,1,0 // movaps 0x1cac3(%rip),%xmm14 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,53,79,206,1,0 // movaps 0x1ce4f(%rip),%xmm14 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -27625,27 +27889,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,58,204,1,0 // andps 0x1cc3a(%rip),%xmm15 # 39550 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
+ .byte 68,15,84,61,198,207,1,0 // andps 0x1cfc6(%rip),%xmm15 # 39e10 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,45,204,1,0 // movaps 0x1cc2d(%rip),%xmm13 # 39560 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
+ .byte 68,15,40,45,185,207,1,0 // movaps 0x1cfb9(%rip),%xmm13 # 39e20 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,41,204,1,0 // addps 0x1cc29(%rip),%xmm8 # 39570 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 68,15,88,5,181,207,1,0 // addps 0x1cfb5(%rip),%xmm8 # 39e30 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,33,204,1,0 // mulps 0x1cc21(%rip),%xmm8 # 39580 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
+ .byte 68,15,89,5,173,207,1,0 // mulps 0x1cfad(%rip),%xmm8 # 39e40 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,37,202,1,0 // movaps 0x1ca25(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,5,177,205,1,0 // movaps 0x1cdb1(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -27667,7 +27931,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,219,201,1,0 // movaps 0x1c9db(%rip),%xmm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,103,205,1,0 // movaps 0x1cd67(%rip),%xmm9 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -27680,19 +27944,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,150,203,1,0 // movaps 0x1cb96(%rip),%xmm14 # 39590 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
+ .byte 68,15,40,53,34,207,1,0 // movaps 0x1cf22(%rip),%xmm14 # 39e50 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,143,203,1,0 // movaps 0x1cb8f(%rip),%xmm11 # 395a0 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,40,29,27,207,1,0 // movaps 0x1cf1b(%rip),%xmm11 # 39e60 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,40,203,1,0 // movaps 0x1cb28(%rip),%xmm7 # 39550 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
+ .byte 15,40,61,180,206,1,0 // movaps 0x1ceb4(%rip),%xmm7 # 39e10 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,57,203,1,0 // movaps 0x1cb39(%rip),%xmm3 # 39570 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 15,40,29,197,206,1,0 // movaps 0x1cec5(%rip),%xmm3 # 39e30 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -27702,7 +27966,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,24,203,1,0 // movaps 0x1cb18(%rip),%xmm12 # 39580 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
+ .byte 68,15,40,37,164,206,1,0 // movaps 0x1cea4(%rip),%xmm12 # 39e40 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -27736,7 +28000,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,176,202,1,0 // addps 0x1cab0(%rip),%xmm10 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,88,21,60,206,1,0 // addps 0x1ce3c(%rip),%xmm10 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -27791,11 +28055,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1cbe7 <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1d11b <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,157,200,1,0 // pand 0x1c89d(%rip),%xmm8 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,68,15,219,5,41,204,1,0 // pand 0x1cc29(%rip),%xmm8 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,241,201,1,0 // mulps 0x1c9f1(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,89,5,125,205,1,0 // mulps 0x1cd7d(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -27806,12 +28070,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 1cc2f <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1d163 <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1cc16 <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1d14a <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1cbba <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1d0ee <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -27819,10 +28083,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1cbba <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1d0ee <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1cbba <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1d0ee <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -27837,19 +28101,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1cd01 <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1d235 <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,95,201,1,0 // movdqa 0x1c95f(%rip),%xmm0 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,235,204,1,0 // movdqa 0x1cceb(%rip),%xmm0 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,94,201,1,0 // mulps 0x1c95e(%rip),%xmm9 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,5,102,201,1,0 // movdqa 0x1c966(%rip),%xmm0 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 68,15,89,13,234,204,1,0 // mulps 0x1ccea(%rip),%xmm9 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,5,242,204,1,0 // movdqa 0x1ccf2(%rip),%xmm0 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,101,201,1,0 // mulps 0x1c965(%rip),%xmm10 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,68,15,219,29,108,201,1,0 // pand 0x1c96c(%rip),%xmm11 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,21,241,204,1,0 // mulps 0x1ccf1(%rip),%xmm10 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,68,15,219,29,248,204,1,0 // pand 0x1ccf8(%rip),%xmm11 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,112,201,1,0 // mulps 0x1c970(%rip),%xmm11 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 68,15,89,29,252,204,1,0 // mulps 0x1ccfc(%rip),%xmm11 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -27874,22 +28138,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1cd4a <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1d27e <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1cd33 <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1d267 <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 1cc69 <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1d19d <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 1cc69 <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1d19d <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 1cc69 <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1d19d <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -27924,11 +28188,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1cdf1 <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1d325 <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,167,198,1,0 // pand 0x1c6a7(%rip),%xmm8 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,68,15,219,5,51,202,1,0 // pand 0x1ca33(%rip),%xmm8 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,251,199,1,0 // mulps 0x1c7fb(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,89,5,135,203,1,0 // mulps 0x1cb87(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -27946,12 +28210,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 1ce3c <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1d370 <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1ce20 <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1d354 <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1cdb0 <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1d2e4 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -27959,10 +28223,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 1cdb0 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1d2e4 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 1cdb0 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1d2e4 <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -27977,19 +28241,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1cf14 <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1d448 <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,82,199,1,0 // movdqa 0x1c752(%rip),%xmm0 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,222,202,1,0 // movdqa 0x1cade(%rip),%xmm0 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,81,199,1,0 // mulps 0x1c751(%rip),%xmm9 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,5,89,199,1,0 // movdqa 0x1c759(%rip),%xmm0 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 68,15,89,13,221,202,1,0 // mulps 0x1cadd(%rip),%xmm9 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,5,229,202,1,0 // movdqa 0x1cae5(%rip),%xmm0 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,88,199,1,0 // mulps 0x1c758(%rip),%xmm11 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,68,15,219,21,95,199,1,0 // pand 0x1c75f(%rip),%xmm10 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,29,228,202,1,0 // mulps 0x1cae4(%rip),%xmm11 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,68,15,219,21,235,202,1,0 // pand 0x1caeb(%rip),%xmm10 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,99,199,1,0 // mulps 0x1c763(%rip),%xmm10 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 68,15,89,21,239,202,1,0 // mulps 0x1caef(%rip),%xmm10 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -28017,22 +28281,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1cf5d <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1d491 <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1cf46 <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1d47a <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 1ce76 <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1d3aa <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 1ce76 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1d3aa <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 1ce76 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1d3aa <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -28041,11 +28305,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1d08e <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1d5c2 <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,213,196,1,0 // movdqa 0x1c4d5(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,5,97,200,1,0 // movdqa 0x1c861(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -28060,7 +28324,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,144,196,1,0 // pshufb 0x1c490(%rip),%xmm1 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,13,28,200,1,0 // pshufb 0x1c81c(%rip),%xmm1 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -28075,7 +28339,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,76,196,1,0 // pshufb 0x1c44c(%rip),%xmm2 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,21,216,199,1,0 // pshufb 0x1c7d8(%rip),%xmm2 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -28090,7 +28354,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,57,197,1,0 // mulps 0x1c539(%rip),%xmm3 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,29,197,200,1,0 // mulps 0x1c8c5(%rip),%xmm3 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -28098,19 +28362,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1d0cf <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1d603 <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1d0bd <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1d5f1 <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1cf80 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1d4b4 <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1cf80 <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1d4b4 <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1cf80 <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1d4b4 <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -28120,7 +28384,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1d24f <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1d783 <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -28131,7 +28395,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,11,197,1,0 // movdqa 0x1c50b(%rip),%xmm8 # 39630 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
+ .byte 102,68,15,111,5,151,200,1,0 // movdqa 0x1c897(%rip),%xmm8 # 39ef0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -28149,7 +28413,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,186,196,1,0 // pshufb 0x1c4ba(%rip),%xmm1 # 39640 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 102,15,56,0,13,70,200,1,0 // pshufb 0x1c846(%rip),%xmm1 # 39f00 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -28185,23 +28449,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,8,196,1,0 // mulps 0x1c408(%rip),%xmm3 # 39650 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,89,29,148,199,1,0 // mulps 0x1c794(%rip),%xmm3 # 39f10 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1d268 <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1d79c <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1d0fd <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1d631 <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1d0fd <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1d631 <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1d0fd <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1d631 <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -28211,7 +28475,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1d3ea <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1d91e <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -28225,7 +28489,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,81,195,1,0 // movdqa 0x1c351(%rip),%xmm8 # 39630 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
+ .byte 102,68,15,111,5,221,198,1,0 // movdqa 0x1c6dd(%rip),%xmm8 # 39ef0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -28243,7 +28507,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,0,195,1,0 // pshufb 0x1c300(%rip),%xmm1 # 39640 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 102,15,56,0,13,140,198,1,0 // pshufb 0x1c68c(%rip),%xmm1 # 39f00 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -28274,7 +28538,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,203,191,1,0 // movaps 0x1bfcb(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,87,195,1,0 // movaps 0x1c357(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -28282,21 +28546,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1d410 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1d944 <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1d2c1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1d7f5 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1d441 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1d975 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1d2c1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1d7f5 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1d2c1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1d7f5 <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -28306,7 +28570,7 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,56,192,1,0 // movaps 0x1c038(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,196,195,1,0 // movaps 0x1c3c4(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -28329,7 +28593,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,254,192,1,0 // movaps 0x1c0fe(%rip),%xmm9 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,13,138,196,1,0 // movaps 0x1c48a(%rip),%xmm9 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -28431,7 +28695,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,90,191,1,0 // movaps 0x1bf5a(%rip),%xmm9 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,13,230,194,1,0 // movaps 0x1c2e6(%rip),%xmm9 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -28613,31 +28877,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,53,189,1,0 // mulps 0x1bd35(%rip),%xmm8 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,21,61,189,1,0 // andps 0x1bd3d(%rip),%xmm10 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,21,101,186,1,0 // orps 0x1ba65(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,5,61,189,1,0 // addps 0x1bd3d(%rip),%xmm8 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 68,15,40,37,69,189,1,0 // movaps 0x1bd45(%rip),%xmm12 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,5,193,192,1,0 // mulps 0x1c0c1(%rip),%xmm8 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,21,201,192,1,0 // andps 0x1c0c9(%rip),%xmm10 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,21,241,189,1,0 // orps 0x1bdf1(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,5,201,192,1,0 // addps 0x1c0c9(%rip),%xmm8 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,40,37,209,192,1,0 // movaps 0x1c0d1(%rip),%xmm12 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,69,189,1,0 // addps 0x1bd45(%rip),%xmm10 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 68,15,40,37,77,189,1,0 // movaps 0x1bd4d(%rip),%xmm12 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,21,209,192,1,0 // addps 0x1c0d1(%rip),%xmm10 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,37,217,192,1,0 // movaps 0x1c0d9(%rip),%xmm12 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,58,189,1,0 // addps 0x1bd3a(%rip),%xmm8 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 68,15,40,21,66,189,1,0 // movaps 0x1bd42(%rip),%xmm10 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,5,198,192,1,0 // addps 0x1c0c6(%rip),%xmm8 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,40,21,206,192,1,0 // movaps 0x1c0ce(%rip),%xmm10 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,66,189,1,0 // movaps 0x1bd42(%rip),%xmm10 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,21,206,192,1,0 // movaps 0x1c0ce(%rip),%xmm10 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,70,189,1,0 // movaps 0x1bd46(%rip),%xmm11 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,29,210,192,1,0 // movaps 0x1c0d2(%rip),%xmm11 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,70,189,1,0 // mulps 0x1bd46(%rip),%xmm11 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,89,29,210,192,1,0 // mulps 0x1c0d2(%rip),%xmm11 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -28645,7 +28909,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,205,185,1,0 // minps 0x1b9cd(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,93,5,89,189,1,0 // minps 0x1bd59(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -28675,31 +28939,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,14,188,1,0 // mulps 0x1bc0e(%rip),%xmm12 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,29,22,188,1,0 // andps 0x1bc16(%rip),%xmm11 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,29,62,185,1,0 // orps 0x1b93e(%rip),%xmm11 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,37,22,188,1,0 // addps 0x1bc16(%rip),%xmm12 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 15,40,13,31,188,1,0 // movaps 0x1bc1f(%rip),%xmm1 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,37,154,191,1,0 // mulps 0x1bf9a(%rip),%xmm12 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,29,162,191,1,0 // andps 0x1bfa2(%rip),%xmm11 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,29,202,188,1,0 // orps 0x1bcca(%rip),%xmm11 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,37,162,191,1,0 // addps 0x1bfa2(%rip),%xmm12 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 15,40,13,171,191,1,0 // movaps 0x1bfab(%rip),%xmm1 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,31,188,1,0 // addps 0x1bc1f(%rip),%xmm11 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 15,40,13,40,188,1,0 // movaps 0x1bc28(%rip),%xmm1 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,29,171,191,1,0 // addps 0x1bfab(%rip),%xmm11 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 15,40,13,180,191,1,0 // movaps 0x1bfb4(%rip),%xmm1 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,21,188,1,0 // addps 0x1bc15(%rip),%xmm12 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 15,40,13,30,188,1,0 // movaps 0x1bc1e(%rip),%xmm1 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,37,161,191,1,0 // addps 0x1bfa1(%rip),%xmm12 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,13,170,191,1,0 // movaps 0x1bfaa(%rip),%xmm1 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,30,188,1,0 // movaps 0x1bc1e(%rip),%xmm10 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,21,170,191,1,0 // movaps 0x1bfaa(%rip),%xmm10 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,35,188,1,0 // movaps 0x1bc23(%rip),%xmm1 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 15,40,13,175,191,1,0 // movaps 0x1bfaf(%rip),%xmm1 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,36,188,1,0 // mulps 0x1bc24(%rip),%xmm1 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 15,89,13,176,191,1,0 // mulps 0x1bfb0(%rip),%xmm1 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -28707,7 +28971,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,175,184,1,0 // minps 0x1b8af(%rip),%xmm1 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,93,13,59,188,1,0 // minps 0x1bc3b(%rip),%xmm1 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -28737,31 +29001,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,240,186,1,0 // mulps 0x1baf0(%rip),%xmm12 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,29,248,186,1,0 // andps 0x1baf8(%rip),%xmm11 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,29,32,184,1,0 // orps 0x1b820(%rip),%xmm11 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,37,248,186,1,0 // addps 0x1baf8(%rip),%xmm12 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 15,40,21,1,187,1,0 // movaps 0x1bb01(%rip),%xmm2 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,37,124,190,1,0 // mulps 0x1be7c(%rip),%xmm12 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,29,132,190,1,0 // andps 0x1be84(%rip),%xmm11 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,29,172,187,1,0 // orps 0x1bbac(%rip),%xmm11 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,37,132,190,1,0 // addps 0x1be84(%rip),%xmm12 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 15,40,21,141,190,1,0 // movaps 0x1be8d(%rip),%xmm2 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,1,187,1,0 // addps 0x1bb01(%rip),%xmm11 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 15,40,21,10,187,1,0 // movaps 0x1bb0a(%rip),%xmm2 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,29,141,190,1,0 // addps 0x1be8d(%rip),%xmm11 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 15,40,21,150,190,1,0 // movaps 0x1be96(%rip),%xmm2 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,247,186,1,0 // addps 0x1baf7(%rip),%xmm12 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 15,40,21,0,187,1,0 // movaps 0x1bb00(%rip),%xmm2 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,37,131,190,1,0 // addps 0x1be83(%rip),%xmm12 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,21,140,190,1,0 // movaps 0x1be8c(%rip),%xmm2 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,0,187,1,0 // movaps 0x1bb00(%rip),%xmm10 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,21,140,190,1,0 // movaps 0x1be8c(%rip),%xmm10 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,5,187,1,0 // movaps 0x1bb05(%rip),%xmm2 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 15,40,21,145,190,1,0 // movaps 0x1be91(%rip),%xmm2 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,6,187,1,0 // mulps 0x1bb06(%rip),%xmm2 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 15,89,21,146,190,1,0 // mulps 0x1be92(%rip),%xmm2 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -28769,7 +29033,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,145,183,1,0 // minps 0x1b791(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,93,21,29,187,1,0 // minps 0x1bb1d(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -28799,31 +29063,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,210,185,1,0 // mulps 0x1b9d2(%rip),%xmm12 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,29,218,185,1,0 // andps 0x1b9da(%rip),%xmm11 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,29,2,183,1,0 // orps 0x1b702(%rip),%xmm11 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,37,218,185,1,0 // addps 0x1b9da(%rip),%xmm12 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 15,40,29,227,185,1,0 // movaps 0x1b9e3(%rip),%xmm3 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,37,94,189,1,0 // mulps 0x1bd5e(%rip),%xmm12 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,29,102,189,1,0 // andps 0x1bd66(%rip),%xmm11 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,29,142,186,1,0 // orps 0x1ba8e(%rip),%xmm11 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,37,102,189,1,0 // addps 0x1bd66(%rip),%xmm12 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 15,40,29,111,189,1,0 // movaps 0x1bd6f(%rip),%xmm3 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,227,185,1,0 // addps 0x1b9e3(%rip),%xmm11 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 15,40,29,236,185,1,0 // movaps 0x1b9ec(%rip),%xmm3 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,29,111,189,1,0 // addps 0x1bd6f(%rip),%xmm11 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 15,40,29,120,189,1,0 // movaps 0x1bd78(%rip),%xmm3 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,217,185,1,0 // addps 0x1b9d9(%rip),%xmm12 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 15,40,29,226,185,1,0 // movaps 0x1b9e2(%rip),%xmm3 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,37,101,189,1,0 // addps 0x1bd65(%rip),%xmm12 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,29,110,189,1,0 // movaps 0x1bd6e(%rip),%xmm3 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,226,185,1,0 // movaps 0x1b9e2(%rip),%xmm10 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,21,110,189,1,0 // movaps 0x1bd6e(%rip),%xmm10 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,231,185,1,0 // movaps 0x1b9e7(%rip),%xmm3 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 15,40,29,115,189,1,0 // movaps 0x1bd73(%rip),%xmm3 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,232,185,1,0 // mulps 0x1b9e8(%rip),%xmm3 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 15,89,29,116,189,1,0 // mulps 0x1bd74(%rip),%xmm3 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -28831,7 +29095,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,115,182,1,0 // minps 0x1b673(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,93,29,255,185,1,0 // minps 0x1b9ff(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -28848,20 +29112,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,242,184,1,0 // mulps 0x1b8f2(%rip),%xmm0 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,40,53,250,184,1,0 // movaps 0x1b8fa(%rip),%xmm14 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,89,5,126,188,1,0 // mulps 0x1bc7e(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,40,53,134,188,1,0 // movaps 0x1bc86(%rip),%xmm14 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,30,182,1,0 // movaps 0x1b61e(%rip),%xmm12 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,170,185,1,0 // movaps 0x1b9aa(%rip),%xmm12 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,242,184,1,0 // movaps 0x1b8f2(%rip),%xmm10 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,40,21,126,188,1,0 // movaps 0x1bc7e(%rip),%xmm10 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,246,184,1,0 // movaps 0x1b8f6(%rip),%xmm11 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,29,130,188,1,0 // movaps 0x1bc82(%rip),%xmm11 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,244,184,1,0 // movaps 0x1b8f4(%rip),%xmm9 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,13,128,188,1,0 // movaps 0x1bc80(%rip),%xmm9 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,248,184,1,0 // movaps 0x1b8f8(%rip),%xmm13 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,132,188,1,0 // movaps 0x1bc84(%rip),%xmm13 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -28872,21 +29136,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,219,184,1,0 // movaps 0x1b8db(%rip),%xmm6 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,53,103,188,1,0 // movaps 0x1bc67(%rip),%xmm6 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,241,184,1,0 // movaps 0x1b8f1(%rip),%xmm7 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 15,40,61,125,188,1,0 // movaps 0x1bc7d(%rip),%xmm7 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,209,184,1,0 // movaps 0x1b8d1(%rip),%xmm4 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,40,37,93,188,1,0 // movaps 0x1bc5d(%rip),%xmm4 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,227,184,1,0 // movaps 0x1b8e3(%rip),%xmm15 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,61,111,188,1,0 // movaps 0x1bc6f(%rip),%xmm15 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,63,184,1,0 // mulps 0x1b83f(%rip),%xmm0 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,89,5,203,187,1,0 // mulps 0x1bbcb(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -28912,8 +29176,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,224,183,1,0 // mulps 0x1b7e0(%rip),%xmm0 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 15,84,29,233,183,1,0 // andps 0x1b7e9(%rip),%xmm3 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,89,5,108,187,1,0 // mulps 0x1bb6c(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,84,29,117,187,1,0 // andps 0x1bb75(%rip),%xmm3 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -28931,7 +29195,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,49,184,1,0 // movaps 0x1b831(%rip),%xmm0 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 15,40,5,189,187,1,0 // movaps 0x1bbbd(%rip),%xmm0 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -28946,34 +29210,139 @@ _sk_gamma_sse41:
.byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_gamma_dst_sse41
+.globl _sk_gamma_dst_sse41
+FUNCTION(_sk_gamma_dst_sse41)
+_sk_gamma_dst_sse41:
+ .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
+ .byte 15,41,92,36,216 // movaps %xmm3,-0x28(%rsp)
+ .byte 15,41,84,36,200 // movaps %xmm2,-0x38(%rsp)
+ .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
+ .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
+ .byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
+ .byte 15,89,5,198,186,1,0 // mulps 0x1bac6(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,40,53,206,186,1,0 // movaps 0x1bace(%rip),%xmm14 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 65,15,84,230 // andps %xmm14,%xmm4
+ .byte 68,15,40,37,242,183,1,0 // movaps 0x1b7f2(%rip),%xmm12 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 65,15,86,228 // orps %xmm12,%xmm4
+ .byte 68,15,40,21,198,186,1,0 // movaps 0x1bac6(%rip),%xmm10 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 65,15,88,194 // addps %xmm10,%xmm0
+ .byte 68,15,40,29,202,186,1,0 // movaps 0x1baca(%rip),%xmm11 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 68,15,40,13,200,186,1,0 // movaps 0x1bac8(%rip),%xmm9 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 65,15,88,225 // addps %xmm9,%xmm4
+ .byte 68,15,40,45,204,186,1,0 // movaps 0x1bacc(%rip),%xmm13 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 65,15,40,205 // movaps %xmm13,%xmm1
+ .byte 15,94,204 // divps %xmm4,%xmm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 243,15,16,56 // movss (%rax),%xmm7
+ .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 102,15,58,8,200,1 // roundps $0x1,%xmm0,%xmm1
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 68,15,40,5,177,186,1,0 // movaps 0x1bab1(%rip),%xmm8 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 65,15,88,192 // addps %xmm8,%xmm0
+ .byte 15,40,29,198,186,1,0 // movaps 0x1bac6(%rip),%xmm3 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,92,212 // subps %xmm4,%xmm2
+ .byte 15,40,13,169,186,1,0 // movaps 0x1baa9(%rip),%xmm1 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 68,15,40,61,187,186,1,0 // movaps 0x1babb(%rip),%xmm15 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 65,15,40,231 // movaps %xmm15,%xmm4
+ .byte 15,94,226 // divps %xmm2,%xmm4
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
+ .byte 15,89,5,23,186,1,0 // mulps 0x1ba17(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 65,15,84,238 // andps %xmm14,%xmm5
+ .byte 65,15,86,236 // orps %xmm12,%xmm5
+ .byte 65,15,88,194 // addps %xmm10,%xmm0
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 65,15,89,211 // mulps %xmm11,%xmm2
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 65,15,88,233 // addps %xmm9,%xmm5
+ .byte 65,15,40,213 // movaps %xmm13,%xmm2
+ .byte 15,94,213 // divps %xmm5,%xmm2
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,92,234 // subps %xmm2,%xmm5
+ .byte 65,15,88,192 // addps %xmm8,%xmm0
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,92,213 // subps %xmm5,%xmm2
+ .byte 15,89,233 // mulps %xmm1,%xmm5
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 65,15,40,239 // movaps %xmm15,%xmm5
+ .byte 15,94,234 // divps %xmm2,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,91,198 // cvtdq2ps %xmm6,%xmm0
+ .byte 15,89,5,192,185,1,0 // mulps 0x1b9c0(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 65,15,84,246 // andps %xmm14,%xmm6
+ .byte 65,15,86,244 // orps %xmm12,%xmm6
+ .byte 65,15,88,194 // addps %xmm10,%xmm0
+ .byte 68,15,89,222 // mulps %xmm6,%xmm11
+ .byte 65,15,92,195 // subps %xmm11,%xmm0
+ .byte 65,15,88,241 // addps %xmm9,%xmm6
+ .byte 68,15,94,238 // divps %xmm6,%xmm13
+ .byte 65,15,92,197 // subps %xmm13,%xmm0
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,92,242 // subps %xmm2,%xmm6
+ .byte 65,15,88,192 // addps %xmm8,%xmm0
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,92,222 // subps %xmm6,%xmm3
+ .byte 68,15,94,251 // divps %xmm3,%xmm15
+ .byte 68,15,88,248 // addps %xmm0,%xmm15
+ .byte 15,40,5,21,186,1,0 // movaps 0x1ba15(%rip),%xmm0 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 68,15,89,248 // mulps %xmm0,%xmm15
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
+ .byte 102,65,15,91,247 // cvtps2dq %xmm15,%xmm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,68,36,168 // movaps -0x58(%rsp),%xmm0
+ .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1
+ .byte 15,40,84,36,200 // movaps -0x38(%rsp),%xmm2
+ .byte 15,40,92,36,216 // movaps -0x28(%rsp),%xmm3
+ .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_lab_to_xyz_sse41
.globl _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,1,184,1,0 // mulps 0x1b801(%rip),%xmm8 # 39710 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- .byte 68,15,40,13,121,181,1,0 // movaps 0x1b579(%rip),%xmm9 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,89,5,229,185,1,0 // mulps 0x1b9e5(%rip),%xmm8 # 39fd0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
+ .byte 68,15,40,13,93,183,1,0 // movaps 0x1b75d(%rip),%xmm9 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,254,183,1,0 // movaps 0x1b7fe(%rip),%xmm0 # 39720 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
+ .byte 15,40,5,226,185,1,0 // movaps 0x1b9e2(%rip),%xmm0 # 39fe0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,252,183,1,0 // addps 0x1b7fc(%rip),%xmm8 # 39730 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- .byte 68,15,89,5,4,184,1,0 // mulps 0x1b804(%rip),%xmm8 # 39740 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- .byte 15,89,13,13,184,1,0 // mulps 0x1b80d(%rip),%xmm1 # 39750 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
+ .byte 68,15,88,5,224,185,1,0 // addps 0x1b9e0(%rip),%xmm8 # 39ff0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
+ .byte 68,15,89,5,232,185,1,0 // mulps 0x1b9e8(%rip),%xmm8 # 3a000 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
+ .byte 15,89,13,241,185,1,0 // mulps 0x1b9f1(%rip),%xmm1 # 3a010 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,18,184,1,0 // mulps 0x1b812(%rip),%xmm2 # 39760 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
+ .byte 15,89,21,246,185,1,0 // mulps 0x1b9f6(%rip),%xmm2 # 3a020 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,6,184,1,0 // movaps 0x1b806(%rip),%xmm9 # 39770 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
+ .byte 68,15,40,13,234,185,1,0 // movaps 0x1b9ea(%rip),%xmm9 # 3a030 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,6,184,1,0 // movaps 0x1b806(%rip),%xmm2 # 39780 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
+ .byte 15,40,21,234,185,1,0 // movaps 0x1b9ea(%rip),%xmm2 # 3a040 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,11,184,1,0 // movaps 0x1b80b(%rip),%xmm12 # 39790 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
+ .byte 68,15,40,37,239,185,1,0 // movaps 0x1b9ef(%rip),%xmm12 # 3a050 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -28992,8 +29361,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,196,183,1,0 // mulps 0x1b7c4(%rip),%xmm1 # 397a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- .byte 15,89,21,205,183,1,0 // mulps 0x1b7cd(%rip),%xmm2 # 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
+ .byte 15,89,13,168,185,1,0 // mulps 0x1b9a8(%rip),%xmm1 # 3a060 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
+ .byte 15,89,21,177,185,1,0 // mulps 0x1b9b1(%rip),%xmm2 # 3a070 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -29010,11 +29379,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1e02d <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1e709 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,75,180,1,0 // pand 0x1b44b(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,5,47,182,1,0 // pand 0x1b62f(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,161,181,1,0 // mulps 0x1b5a1(%rip),%xmm3 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,29,133,183,1,0 // mulps 0x1b785(%rip),%xmm3 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -29023,12 +29392,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e06f <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1e74b <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e059 <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1e735 <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1e00d <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1e6e9 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -29036,10 +29405,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 1e00d <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1e6e9 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 1e00d <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1e6e9 <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -29052,11 +29421,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1e0b9 <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1e795 <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,191,179,1,0 // pand 0x1b3bf(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,37,163,181,1,0 // pand 0x1b5a3(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,21,181,1,0 // mulps 0x1b515(%rip),%xmm7 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,61,249,182,1,0 // mulps 0x1b6f9(%rip),%xmm7 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -29065,12 +29434,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e0fb <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1e7d7 <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e0e5 <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1e7c1 <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1e099 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1e775 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -29078,10 +29447,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1e099 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1e775 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1e099 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1e775 <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -29124,7 +29493,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,13,180,1,0 // mulps 0x1b40d(%rip),%xmm3 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,29,241,181,1,0 // mulps 0x1b5f1(%rip),%xmm3 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -29141,13 +29510,13 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,180,178,1,0 // movaps 0x1b2b4(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,152,180,1,0 // movaps 0x1b498(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1e202 <_sk_store_a8_sse41+0x41>
+ .byte 117,13 // jne 1e8de <_sk_store_a8_sse41+0x41>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -29156,17 +29525,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1e23e <_sk_store_a8_sse41+0x7d>
+ .byte 116,41 // je 1e91a <_sk_store_a8_sse41+0x7d>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e22a <_sk_store_a8_sse41+0x69>
+ .byte 116,15 // je 1e906 <_sk_store_a8_sse41+0x69>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1e1fe <_sk_store_a8_sse41+0x3d>
+ .byte 117,221 // jne 1e8da <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,140,181,1,0 // pshufb 0x1b58c(%rip),%xmm8 # 397c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
+ .byte 102,68,15,56,0,5,112,183,1,0 // pshufb 0x1b770(%rip),%xmm8 # 3a080 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 1e1fe <_sk_store_a8_sse41+0x3d>
+ .byte 235,192 // jmp 1e8da <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 1e1fe <_sk_store_a8_sse41+0x3d>
+ .byte 235,182 // jmp 1e8da <_sk_store_a8_sse41+0x3d>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -29179,25 +29548,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1e28a <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1e966 <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,241,177,1,0 // pand 0x1b1f1(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,5,213,179,1,0 // pand 0x1b3d5(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,71,179,1,0 // mulps 0x1b347(%rip),%xmm0 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,5,43,181,1,0 // mulps 0x1b52b(%rip),%xmm0 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,46,177,1,0 // movaps 0x1b12e(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,18,179,1,0 // movaps 0x1b312(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e2cc <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1e9a8 <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e2b6 <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1e992 <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1e267 <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1e943 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -29205,10 +29574,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1e267 <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1e943 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1e267 <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1e943 <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -29221,25 +29590,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1e319 <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1e9f5 <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,98,177,1,0 // pand 0x1b162(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,37,70,179,1,0 // pand 0x1b346(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,184,178,1,0 // mulps 0x1b2b8(%rip),%xmm4 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,37,156,180,1,0 // mulps 0x1b49c(%rip),%xmm4 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,159,176,1,0 // movaps 0x1b09f(%rip),%xmm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,61,131,178,1,0 // movaps 0x1b283(%rip),%xmm7 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e35b <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1ea37 <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e345 <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1ea21 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1e2f6 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1e9d2 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -29247,10 +29616,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1e2f6 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1e9d2 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1e2f6 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1e9d2 <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -29293,9 +29662,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,173,177,1,0 // mulps 0x1b1ad(%rip),%xmm0 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,5,145,179,1,0 // mulps 0x1b391(%rip),%xmm0 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,148,175,1,0 // movaps 0x1af94(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,120,177,1,0 // movaps 0x1b178(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -29312,41 +29681,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1e48f <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1eb6b <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,130,177,1,0 // movdqa 0x1b182(%rip),%xmm0 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,102,179,1,0 // movdqa 0x1b366(%rip),%xmm0 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,132,177,1,0 // mulps 0x1b184(%rip),%xmm0 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,13,140,177,1,0 // movdqa 0x1b18c(%rip),%xmm1 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 15,89,5,104,179,1,0 // mulps 0x1b368(%rip),%xmm0 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,13,112,179,1,0 // movdqa 0x1b370(%rip),%xmm1 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,142,177,1,0 // mulps 0x1b18e(%rip),%xmm1 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,15,219,21,150,177,1,0 // pand 0x1b196(%rip),%xmm2 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,13,114,179,1,0 // mulps 0x1b372(%rip),%xmm1 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,15,219,21,122,179,1,0 // pand 0x1b37a(%rip),%xmm2 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,156,177,1,0 // mulps 0x1b19c(%rip),%xmm2 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 15,89,21,128,179,1,0 // mulps 0x1b380(%rip),%xmm2 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,35,175,1,0 // movaps 0x1af23(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,7,177,1,0 // movaps 0x1b107(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e4d1 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1ebad <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e4bb <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1eb97 <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1e446 <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1eb22 <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 1e446 <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1eb22 <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 1e446 <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1eb22 <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -29360,41 +29729,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1e54a <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1ec26 <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,199,176,1,0 // movdqa 0x1b0c7(%rip),%xmm4 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,37,171,178,1,0 // movdqa 0x1b2ab(%rip),%xmm4 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,201,176,1,0 // mulps 0x1b0c9(%rip),%xmm4 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,45,209,176,1,0 // movdqa 0x1b0d1(%rip),%xmm5 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 15,89,37,173,178,1,0 // mulps 0x1b2ad(%rip),%xmm4 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,45,181,178,1,0 // movdqa 0x1b2b5(%rip),%xmm5 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,211,176,1,0 // mulps 0x1b0d3(%rip),%xmm5 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,15,219,53,219,176,1,0 // pand 0x1b0db(%rip),%xmm6 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,45,183,178,1,0 // mulps 0x1b2b7(%rip),%xmm5 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,15,219,53,191,178,1,0 // pand 0x1b2bf(%rip),%xmm6 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,225,176,1,0 // mulps 0x1b0e1(%rip),%xmm6 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 15,89,53,197,178,1,0 // mulps 0x1b2c5(%rip),%xmm6 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,104,174,1,0 // movaps 0x1ae68(%rip),%xmm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,61,76,176,1,0 // movaps 0x1b04c(%rip),%xmm7 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e58c <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1ec68 <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e576 <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1ec52 <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1e501 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1ebdd <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 1e501 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1ebdd <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 1e501 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1ebdd <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -29436,19 +29805,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,142,175,1,0 // movdqa 0x1af8e(%rip),%xmm0 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,114,177,1,0 // movdqa 0x1b172(%rip),%xmm0 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,144,175,1,0 // mulps 0x1af90(%rip),%xmm0 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,13,152,175,1,0 // movdqa 0x1af98(%rip),%xmm1 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 15,89,5,116,177,1,0 // mulps 0x1b174(%rip),%xmm0 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,13,124,177,1,0 // movdqa 0x1b17c(%rip),%xmm1 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,154,175,1,0 // mulps 0x1af9a(%rip),%xmm1 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,15,219,21,162,175,1,0 // pand 0x1afa2(%rip),%xmm2 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,13,126,177,1,0 // mulps 0x1b17e(%rip),%xmm1 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,15,219,21,134,177,1,0 // pand 0x1b186(%rip),%xmm2 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,168,175,1,0 // mulps 0x1afa8(%rip),%xmm2 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 15,89,21,140,177,1,0 // mulps 0x1b18c(%rip),%xmm2 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,47,173,1,0 // movaps 0x1ad2f(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,19,175,1,0 // movaps 0x1af13(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -29462,12 +29831,12 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,47,177,1,0 // movaps 0x1b12f(%rip),%xmm8 # 397d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
+ .byte 68,15,40,5,19,179,1,0 // movaps 0x1b313(%rip),%xmm8 # 3a090 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,36,177,1,0 // movaps 0x1b124(%rip),%xmm10 # 397e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 68,15,40,21,8,179,1,0 // movaps 0x1b308(%rip),%xmm10 # 3a0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -29477,7 +29846,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e6f3 <_sk_store_565_sse41+0x70>
+ .byte 117,10 // jne 1edcf <_sk_store_565_sse41+0x70>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29485,17 +29854,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1e729 <_sk_store_565_sse41+0xa6>
+ .byte 116,35 // je 1ee05 <_sk_store_565_sse41+0xa6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e71b <_sk_store_565_sse41+0x98>
+ .byte 116,15 // je 1edf7 <_sk_store_565_sse41+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1e6ef <_sk_store_565_sse41+0x6c>
+ .byte 117,221 // jne 1edcb <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1e6ef <_sk_store_565_sse41+0x6c>
+ .byte 235,198 // jmp 1edcb <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1e6ef <_sk_store_565_sse41+0x6c>
+ .byte 235,188 // jmp 1edcb <_sk_store_565_sse41+0x6c>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -29509,44 +29878,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1e7ad <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 1ee89 <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,147,176,1,0 // movdqa 0x1b093(%rip),%xmm0 # 397f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,5,119,178,1,0 // movdqa 0x1b277(%rip),%xmm0 # 3a0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,149,176,1,0 // mulps 0x1b095(%rip),%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- .byte 102,15,111,13,157,176,1,0 // movdqa 0x1b09d(%rip),%xmm1 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 15,89,5,121,178,1,0 // mulps 0x1b279(%rip),%xmm0 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 102,15,111,13,129,178,1,0 // movdqa 0x1b281(%rip),%xmm1 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,159,176,1,0 // mulps 0x1b09f(%rip),%xmm1 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- .byte 102,15,111,21,167,176,1,0 // movdqa 0x1b0a7(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 15,89,13,131,178,1,0 // mulps 0x1b283(%rip),%xmm1 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 102,15,111,21,139,178,1,0 // movdqa 0x1b28b(%rip),%xmm2 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,169,176,1,0 // mulps 0x1b0a9(%rip),%xmm2 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- .byte 102,15,219,29,177,176,1,0 // pand 0x1b0b1(%rip),%xmm3 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,21,141,178,1,0 // mulps 0x1b28d(%rip),%xmm2 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 102,15,219,29,149,178,1,0 // pand 0x1b295(%rip),%xmm3 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,183,176,1,0 // mulps 0x1b0b7(%rip),%xmm3 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 15,89,29,155,178,1,0 // mulps 0x1b29b(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e7ef <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 1eecb <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e7d9 <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 1eeb5 <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1e755 <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 1ee31 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 1e755 <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1ee31 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 1e755 <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1ee31 <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -29560,44 +29929,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1e877 <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 1ef53 <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,201,175,1,0 // movdqa 0x1afc9(%rip),%xmm4 # 397f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,37,173,177,1,0 // movdqa 0x1b1ad(%rip),%xmm4 # 3a0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,203,175,1,0 // mulps 0x1afcb(%rip),%xmm4 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- .byte 102,15,111,45,211,175,1,0 // movdqa 0x1afd3(%rip),%xmm5 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 15,89,37,175,177,1,0 // mulps 0x1b1af(%rip),%xmm4 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 102,15,111,45,183,177,1,0 // movdqa 0x1b1b7(%rip),%xmm5 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,213,175,1,0 // mulps 0x1afd5(%rip),%xmm5 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- .byte 102,15,111,53,221,175,1,0 // movdqa 0x1afdd(%rip),%xmm6 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 15,89,45,185,177,1,0 // mulps 0x1b1b9(%rip),%xmm5 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 102,15,111,53,193,177,1,0 // movdqa 0x1b1c1(%rip),%xmm6 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,223,175,1,0 // mulps 0x1afdf(%rip),%xmm6 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- .byte 102,15,219,61,231,175,1,0 // pand 0x1afe7(%rip),%xmm7 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,53,195,177,1,0 // mulps 0x1b1c3(%rip),%xmm6 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 102,15,219,61,203,177,1,0 // pand 0x1b1cb(%rip),%xmm7 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,237,175,1,0 // mulps 0x1afed(%rip),%xmm7 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 15,89,61,209,177,1,0 // mulps 0x1b1d1(%rip),%xmm7 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e8b9 <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 1ef95 <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e8a3 <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 1ef7f <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1e81f <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 1eefb <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 1e81f <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1eefb <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 1e81f <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1eefb <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -29639,21 +30008,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,129,174,1,0 // movdqa 0x1ae81(%rip),%xmm0 # 397f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,5,101,176,1,0 // movdqa 0x1b065(%rip),%xmm0 # 3a0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,131,174,1,0 // mulps 0x1ae83(%rip),%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- .byte 102,15,111,13,139,174,1,0 // movdqa 0x1ae8b(%rip),%xmm1 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 15,89,5,103,176,1,0 // mulps 0x1b067(%rip),%xmm0 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 102,15,111,13,111,176,1,0 // movdqa 0x1b06f(%rip),%xmm1 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,141,174,1,0 // mulps 0x1ae8d(%rip),%xmm1 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- .byte 102,15,111,21,149,174,1,0 // movdqa 0x1ae95(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 15,89,13,113,176,1,0 // mulps 0x1b071(%rip),%xmm1 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 102,15,111,21,121,176,1,0 // movdqa 0x1b079(%rip),%xmm2 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,151,174,1,0 // mulps 0x1ae97(%rip),%xmm2 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- .byte 102,15,219,29,159,174,1,0 // pand 0x1ae9f(%rip),%xmm3 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,21,123,176,1,0 // mulps 0x1b07b(%rip),%xmm2 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 102,15,219,29,131,176,1,0 // pand 0x1b083(%rip),%xmm3 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,165,174,1,0 // mulps 0x1aea5(%rip),%xmm3 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 15,89,29,137,176,1,0 // mulps 0x1b089(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29668,7 +30037,7 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,147,174,1,0 // movaps 0x1ae93(%rip),%xmm8 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 68,15,40,5,119,176,1,0 // movaps 0x1b077(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -29688,7 +30057,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1ea43 <_sk_store_4444_sse41+0x84>
+ .byte 117,10 // jne 1f11f <_sk_store_4444_sse41+0x84>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29696,17 +30065,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1ea79 <_sk_store_4444_sse41+0xba>
+ .byte 116,35 // je 1f155 <_sk_store_4444_sse41+0xba>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1ea6b <_sk_store_4444_sse41+0xac>
+ .byte 116,15 // je 1f147 <_sk_store_4444_sse41+0xac>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1ea3f <_sk_store_4444_sse41+0x80>
+ .byte 117,221 // jne 1f11b <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1ea3f <_sk_store_4444_sse41+0x80>
+ .byte 235,198 // jmp 1f11b <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1ea3f <_sk_store_4444_sse41+0x80>
+ .byte 235,188 // jmp 1f11b <_sk_store_4444_sse41+0x80>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -29720,19 +30089,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1eaf8 <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 1f1d4 <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,179,169,1,0 // movdqa 0x1a9b3(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,5,151,171,1,0 // movdqa 0x1ab97(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,4,171,1,0 // movaps 0x1ab04(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,232,172,1,0 // movaps 0x1ace8(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,163,169,1,0 // pshufb 0x1a9a3(%rip),%xmm1 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,13,135,171,1,0 // pshufb 0x1ab87(%rip),%xmm1 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,159,169,1,0 // pshufb 0x1a99f(%rip),%xmm2 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,21,131,171,1,0 // pshufb 0x1ab83(%rip),%xmm2 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -29743,19 +30112,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1eb32 <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 1f20e <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1eb21 <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 1f1fd <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1eaa5 <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 1f181 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1eaa5 <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1f181 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1eaa5 <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1f181 <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -29769,19 +30138,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1ebb2 <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 1f28e <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,249,168,1,0 // movdqa 0x1a8f9(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,37,221,170,1,0 // movdqa 0x1aadd(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,74,170,1,0 // movaps 0x1aa4a(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,46,172,1,0 // movaps 0x1ac2e(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,233,168,1,0 // pshufb 0x1a8e9(%rip),%xmm5 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,45,205,170,1,0 // pshufb 0x1aacd(%rip),%xmm5 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,229,168,1,0 // pshufb 0x1a8e5(%rip),%xmm6 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,53,201,170,1,0 // pshufb 0x1aac9(%rip),%xmm6 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -29792,19 +30161,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1ebec <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 1f2c8 <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1ebdb <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 1f2b7 <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1eb5f <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 1f23b <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1eb5f <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1f23b <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1eb5f <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1f23b <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -29841,17 +30210,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,210,167,1,0 // movdqa 0x1a7d2(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,5,182,169,1,0 // movdqa 0x1a9b6(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,35,169,1,0 // movaps 0x1a923(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,7,171,1,0 // movaps 0x1ab07(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,194,167,1,0 // pshufb 0x1a7c2(%rip),%xmm1 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,13,166,169,1,0 // pshufb 0x1a9a6(%rip),%xmm1 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,190,167,1,0 // pshufb 0x1a7be(%rip),%xmm2 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,21,162,169,1,0 // pshufb 0x1a9a2(%rip),%xmm2 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -29871,7 +30240,7 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,152,167,1,0 // movaps 0x1a798(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,124,169,1,0 // movaps 0x1a97c(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -29890,23 +30259,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1ed58 <_sk_store_8888_sse41+0x7f>
+ .byte 117,10 // jne 1f434 <_sk_store_8888_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1ed82 <_sk_store_8888_sse41+0xa9>
+ .byte 116,29 // je 1f45e <_sk_store_8888_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1ed7a <_sk_store_8888_sse41+0xa1>
+ .byte 116,15 // je 1f456 <_sk_store_8888_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1ed54 <_sk_store_8888_sse41+0x7b>
+ .byte 117,227 // jne 1f430 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1ed54 <_sk_store_8888_sse41+0x7b>
+ .byte 235,210 // jmp 1f430 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1ed54 <_sk_store_8888_sse41+0x7b>
+ .byte 235,202 // jmp 1f430 <_sk_store_8888_sse41+0x7b>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -29920,19 +30289,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1edff <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 1f4db <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,172,166,1,0 // movdqa 0x1a6ac(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,5,144,168,1,0 // movdqa 0x1a890(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,253,167,1,0 // movaps 0x1a7fd(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,225,169,1,0 // movaps 0x1a9e1(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,156,166,1,0 // pshufb 0x1a69c(%rip),%xmm0 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,5,128,168,1,0 // pshufb 0x1a880(%rip),%xmm0 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,152,166,1,0 // pshufb 0x1a698(%rip),%xmm0 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,5,124,168,1,0 // pshufb 0x1a87c(%rip),%xmm0 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -29943,19 +30312,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1ee39 <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 1f515 <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1ee28 <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 1f504 <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1edac <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 1f488 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1edac <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1f488 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1edac <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1f488 <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -29969,19 +30338,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1eeb9 <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 1f595 <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,242,165,1,0 // movdqa 0x1a5f2(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,37,214,167,1,0 // movdqa 0x1a7d6(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,67,167,1,0 // movaps 0x1a743(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,39,169,1,0 // movaps 0x1a927(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,226,165,1,0 // pshufb 0x1a5e2(%rip),%xmm4 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,37,198,167,1,0 // pshufb 0x1a7c6(%rip),%xmm4 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,222,165,1,0 // pshufb 0x1a5de(%rip),%xmm4 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,37,194,167,1,0 // pshufb 0x1a7c2(%rip),%xmm4 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -29992,19 +30361,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1eef3 <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 1f5cf <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1eee2 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 1f5be <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1ee66 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 1f542 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1ee66 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1f542 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1ee66 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1f542 <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -30041,17 +30410,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,203,164,1,0 // movdqa 0x1a4cb(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,5,175,166,1,0 // movdqa 0x1a6af(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,28,166,1,0 // movaps 0x1a61c(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,0,168,1,0 // movaps 0x1a800(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,187,164,1,0 // pshufb 0x1a4bb(%rip),%xmm0 # 39470 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,5,159,166,1,0 // pshufb 0x1a69f(%rip),%xmm0 # 39d30 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,183,164,1,0 // pshufb 0x1a4b7(%rip),%xmm0 # 39480 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 102,15,56,0,5,155,166,1,0 // pshufb 0x1a69b(%rip),%xmm0 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30071,7 +30440,7 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,145,164,1,0 // movaps 0x1a491(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,117,166,1,0 // movaps 0x1a675(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -30090,23 +30459,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1f05f <_sk_store_bgra_sse41+0x7f>
+ .byte 117,10 // jne 1f73b <_sk_store_bgra_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1f089 <_sk_store_bgra_sse41+0xa9>
+ .byte 116,29 // je 1f765 <_sk_store_bgra_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1f081 <_sk_store_bgra_sse41+0xa1>
+ .byte 116,15 // je 1f75d <_sk_store_bgra_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1f05b <_sk_store_bgra_sse41+0x7b>
+ .byte 117,227 // jne 1f737 <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1f05b <_sk_store_bgra_sse41+0x7b>
+ .byte 235,210 // jmp 1f737 <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1f05b <_sk_store_bgra_sse41+0x7b>
+ .byte 235,202 // jmp 1f737 <_sk_store_bgra_sse41+0x7b>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -30120,7 +30489,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1f1f5 <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1f8d1 <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -30130,19 +30499,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,150,167,1,0 // movdqa 0x1a796(%rip),%xmm8 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,5,122,169,1,0 // movdqa 0x1a97a(%rip),%xmm8 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,148,167,1,0 // movdqa 0x1a794(%rip),%xmm10 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,68,15,111,21,120,169,1,0 // movdqa 0x1a978(%rip),%xmm10 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,151,167,1,0 // movdqa 0x1a797(%rip),%xmm3 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,15,111,29,123,169,1,0 // movdqa 0x1a97b(%rip),%xmm3 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,131,167,1,0 // movdqa 0x1a783(%rip),%xmm11 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,29,103,169,1,0 // movdqa 0x1a967(%rip),%xmm11 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -30185,16 +30554,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f20e <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 1f8ea <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 1f0be <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1f79a <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1f0be <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1f79a <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 1f0be <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1f79a <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -30208,7 +30577,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1f393 <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1fa6f <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -30218,19 +30587,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,248,165,1,0 // movdqa 0x1a5f8(%rip),%xmm8 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,5,220,167,1,0 // movdqa 0x1a7dc(%rip),%xmm8 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,246,165,1,0 // movdqa 0x1a5f6(%rip),%xmm10 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,68,15,111,21,218,167,1,0 // movdqa 0x1a7da(%rip),%xmm10 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,249,165,1,0 // movdqa 0x1a5f9(%rip),%xmm7 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,15,111,61,221,167,1,0 // movdqa 0x1a7dd(%rip),%xmm7 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,229,165,1,0 // movdqa 0x1a5e5(%rip),%xmm11 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,29,201,167,1,0 // movdqa 0x1a7c9(%rip),%xmm11 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -30273,16 +30642,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f3ac <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 1fa88 <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 1f25c <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1f938 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1f25c <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1f938 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 1f25c <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1f938 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -30328,19 +30697,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,246,163,1,0 // movdqa 0x1a3f6(%rip),%xmm8 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,5,218,165,1,0 // movdqa 0x1a5da(%rip),%xmm8 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,244,163,1,0 // movdqa 0x1a3f4(%rip),%xmm10 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,68,15,111,21,216,165,1,0 // movdqa 0x1a5d8(%rip),%xmm10 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,247,163,1,0 // movdqa 0x1a3f7(%rip),%xmm3 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,15,111,29,219,165,1,0 // movdqa 0x1a5db(%rip),%xmm3 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,227,163,1,0 // movdqa 0x1a3e3(%rip),%xmm11 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,29,199,165,1,0 // movdqa 0x1a5c7(%rip),%xmm11 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -30393,20 +30762,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,11,163,1,0 // movdqa 0x1a30b(%rip),%xmm9 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 102,68,15,111,13,239,164,1,0 // movdqa 0x1a4ef(%rip),%xmm9 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,8,163,1,0 // movdqa 0x1a308(%rip),%xmm11 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 102,68,15,111,29,236,164,1,0 // movdqa 0x1a4ec(%rip),%xmm11 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,5,163,1,0 // movdqa 0x1a305(%rip),%xmm10 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
+ .byte 102,68,15,111,21,233,164,1,0 // movdqa 0x1a4e9(%rip),%xmm10 # 3a1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,235,162,1,0 // movdqa 0x1a2eb(%rip),%xmm12 # 398f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
+ .byte 102,68,15,111,37,207,164,1,0 // movdqa 0x1a4cf(%rip),%xmm12 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -30451,7 +30820,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1f703 <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 1fddf <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -30459,13 +30828,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1f6ff <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 1fddb <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1f6ff <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 1fddb <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 1f6ff <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 1fddb <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -30480,7 +30849,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 1f80a <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 1fee6 <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -30496,7 +30865,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,179,158,1,0 // movaps 0x19eb3(%rip),%xmm8 # 39650 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,5,151,160,1,0 // movaps 0x1a097(%rip),%xmm8 # 39f10 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -30524,16 +30893,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f823 <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 1feff <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 1f75e <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 1fe3a <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 1f75e <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 1fe3a <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 1f75e <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 1fe3a <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -30550,7 +30919,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 1f919 <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 1fff5 <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -30570,7 +30939,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,130,157,1,0 // movaps 0x19d82(%rip),%xmm8 # 39650 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,5,102,159,1,0 // movaps 0x19f66(%rip),%xmm8 # 39f10 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -30587,27 +30956,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,153,154,1,0 // movaps 0x19a99(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,125,156,1,0 // movaps 0x19c7d(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f93e <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 2001a <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 1f893 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 1ff6f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1f96f <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 2004b <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 1f893 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 1ff6f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 1f893 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 1ff6f <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -30621,7 +30990,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,98,159,1,0 // movaps 0x19f62(%rip),%xmm10 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
+ .byte 68,15,40,21,70,161,1,0 // movaps 0x1a146(%rip),%xmm10 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -30658,7 +31027,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1fa6c <_sk_store_u16_be_sse41+0xf4>
+ .byte 117,21 // jne 20148 <_sk_store_u16_be_sse41+0xf4>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -30666,13 +31035,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1fa68 <_sk_store_u16_be_sse41+0xf0>
+ .byte 116,240 // je 20144 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1fa68 <_sk_store_u16_be_sse41+0xf0>
+ .byte 114,227 // jb 20144 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 1fa68 <_sk_store_u16_be_sse41+0xf0>
+ .byte 235,213 // jmp 20144 <_sk_store_u16_be_sse41+0xf0>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -30688,7 +31057,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1fafe <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 201da <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -30708,17 +31077,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1fb10 <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 201ec <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 1face <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 201aa <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1fb24 <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 20200 <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 1face <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 201aa <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 1face <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 201aa <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -30734,7 +31103,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1fb94 <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 20270 <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -30754,17 +31123,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1fba6 <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 20282 <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 1fb64 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 20240 <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1fbba <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 20296 <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 1fb64 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 20240 <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 1fb64 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 20240 <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -30793,7 +31162,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 1fc3c <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 20318 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -30801,12 +31170,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 1fc38 <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 20314 <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 1fc38 <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 20314 <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 1fc38 <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 20314 <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -30852,7 +31221,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,132,141,1,0 // mulss 0x18d84(%rip),%xmm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,104,143,1,0 // mulss 0x18f68(%rip),%xmm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -30877,7 +31246,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,43,141,1,0 // mulss 0x18d2b(%rip),%xmm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,15,143,1,0 // mulss 0x18f0f(%rip),%xmm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -30896,7 +31265,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,59,150,1,0 // minps 0x1963b(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,93,5,31,152,1,0 // minps 0x1981f(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30909,7 +31278,7 @@ _sk_repeat_x_1_sse41:
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,24,150,1,0 // minps 0x19618(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,93,5,252,151,1,0 // minps 0x197fc(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30918,9 +31287,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,104,150,1,0 // movaps 0x19668(%rip),%xmm8 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,5,76,152,1,0 // movaps 0x1984c(%rip),%xmm8 # 39cd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,236,149,1,0 // movaps 0x195ec(%rip),%xmm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,208,151,1,0 // movaps 0x197d0(%rip),%xmm9 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -30931,7 +31300,7 @@ _sk_mirror_x_1_sse41:
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 68,15,84,200 // andps %xmm0,%xmm9
.byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,201,149,1,0 // minps 0x195c9(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,93,5,173,151,1,0 // minps 0x197ad(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30941,10 +31310,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,23,155,1,0 // mulps 0x19b17(%rip),%xmm0 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
- .byte 15,89,13,32,155,1,0 // mulps 0x19b20(%rip),%xmm1 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
+ .byte 15,89,5,251,156,1,0 // mulps 0x19cfb(%rip),%xmm0 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
+ .byte 15,89,13,4,157,1,0 // mulps 0x19d04(%rip),%xmm1 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,38,155,1,0 // mulps 0x19b26(%rip),%xmm3 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
+ .byte 15,89,29,10,157,1,0 // mulps 0x19d0a(%rip),%xmm3 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -31256,9 +31625,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 202aa <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 20986 <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 202bf <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 2099b <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -31351,7 +31720,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 2049c <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 20b78 <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -31362,7 +31731,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 20482 <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 20b5e <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -31493,26 +31862,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,80,146,1,0 // movaps 0x19250(%rip),%xmm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,40,21,52,148,1,0 // movaps 0x19434(%rip),%xmm10 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,84,146,1,0 // addps 0x19254(%rip),%xmm10 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,88,21,56,148,1,0 // addps 0x19438(%rip),%xmm10 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,88,146,1,0 // addps 0x19258(%rip),%xmm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 68,15,88,21,60,148,1,0 // addps 0x1943c(%rip),%xmm10 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,92,146,1,0 // addps 0x1925c(%rip),%xmm10 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 68,15,88,21,64,148,1,0 // addps 0x19440(%rip),%xmm10 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,91,146,1,0 // movaps 0x1925b(%rip),%xmm11 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,40,29,63,148,1,0 // movaps 0x1943f(%rip),%xmm11 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,100,140,1,0 // movaps 0x18c64(%rip),%xmm11 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,29,72,142,1,0 // movaps 0x18e48(%rip),%xmm11 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,86,140,1,0 // movaps 0x18c56(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,58,142,1,0 // movaps 0x18e3a(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -31547,7 +31916,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,204,145,1,0 // mulps 0x191cc(%rip),%xmm9 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,13,176,147,1,0 // mulps 0x193b0(%rip),%xmm9 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -31555,7 +31924,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,182,145,1,0 // mulps 0x191b6(%rip),%xmm10 # 399a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,89,21,154,147,1,0 // mulps 0x1939a(%rip),%xmm10 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -31563,7 +31932,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,147,139,1,0 // mulps 0x18b93(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,89,5,119,141,1,0 // mulps 0x18d77(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31582,7 +31951,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,67,145,1,0 // mulps 0x19143(%rip),%xmm9 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,13,39,147,1,0 // mulps 0x19327(%rip),%xmm9 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -31590,16 +31959,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,45,145,1,0 // mulps 0x1912d(%rip),%xmm10 # 399a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,89,21,17,147,1,0 // mulps 0x19311(%rip),%xmm10 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,45,144,1,0 // xorps 0x1902d(%rip),%xmm9 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 68,15,87,13,17,146,1,0 // xorps 0x19211(%rip),%xmm9 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,2,139,1,0 // mulps 0x18b02(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,89,5,230,140,1,0 // mulps 0x18ce6(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31614,7 +31983,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,198,144,1,0 // mulps 0x190c6(%rip),%xmm9 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,13,170,146,1,0 // mulps 0x192aa(%rip),%xmm9 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -31622,7 +31991,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,210,143,1,0 // xorps 0x18fd2(%rip),%xmm0 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 15,87,5,182,145,1,0 // xorps 0x191b6(%rip),%xmm0 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31670,7 +32039,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,49,138,1,0 // movaps 0x18a31(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,21,140,1,0 // movaps 0x18c15(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -31714,8 +32083,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,170,143,1,0 // addps 0x18faa(%rip),%xmm0 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,162,137,1,0 // movaps 0x189a2(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,5,142,145,1,0 // addps 0x1918e(%rip),%xmm0 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,134,139,1,0 // movaps 0x18b86(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31728,7 +32097,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,110,137,1,0 // addps 0x1896e(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,82,139,1,0 // addps 0x18b52(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31740,8 +32109,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,93,143,1,0 // addps 0x18f5d(%rip),%xmm1 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,85,137,1,0 // movaps 0x18955(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,13,65,145,1,0 // addps 0x19141(%rip),%xmm1 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,57,139,1,0 // movaps 0x18b39(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31754,7 +32123,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,32,137,1,0 // addps 0x18920(%rip),%xmm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,4,139,1,0 // addps 0x18b04(%rip),%xmm1 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31766,13 +32135,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,32,143,1,0 // addps 0x18f20(%rip),%xmm0 # 399c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,40,13,8,137,1,0 // movaps 0x18908(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,5,4,145,1,0 // addps 0x19104(%rip),%xmm0 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,40,13,236,138,1,0 // movaps 0x18aec(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,20,143,1,0 // mulps 0x18f14(%rip),%xmm9 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,13,236,138,1,0 // addps 0x18aec(%rip),%xmm9 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,13,248,144,1,0 // mulps 0x190f8(%rip),%xmm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,13,208,140,1,0 // addps 0x18cd0(%rip),%xmm9 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31785,16 +32154,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,200,142,1,0 // addps 0x18ec8(%rip),%xmm0 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,192,136,1,0 // movaps 0x188c0(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,5,172,144,1,0 // addps 0x190ac(%rip),%xmm0 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,164,138,1,0 // movaps 0x18aa4(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,228,142,1,0 // movaps 0x18ee4(%rip),%xmm8 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,5,200,144,1,0 // movaps 0x190c8(%rip),%xmm8 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,232,142,1,0 // addps 0x18ee8(%rip),%xmm8 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,204,144,1,0 // addps 0x190cc(%rip),%xmm8 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,140,136,1,0 // addps 0x1888c(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,5,112,138,1,0 // addps 0x18a70(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,224,142,1,0 // addps 0x18ee0(%rip),%xmm8 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,5,196,144,1,0 // addps 0x190c4(%rip),%xmm8 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31804,17 +32173,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,106,136,1,0 // movaps 0x1886a(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,78,138,1,0 // movaps 0x18a4e(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,147,142,1,0 // movaps 0x18e93(%rip),%xmm10 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,21,119,144,1,0 // movaps 0x19077(%rip),%xmm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,151,142,1,0 // addps 0x18e97(%rip),%xmm10 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,123,144,1,0 // addps 0x1907b(%rip),%xmm10 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,147,142,1,0 // addps 0x18e93(%rip),%xmm10 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,21,119,144,1,0 // addps 0x19077(%rip),%xmm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31826,11 +32195,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,99,142,1,0 // addps 0x18e63(%rip),%xmm0 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 15,88,5,71,144,1,0 // addps 0x19047(%rip),%xmm0 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,51,142,1,0 // mulps 0x18e33(%rip),%xmm8 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,5,11,138,1,0 // addps 0x18a0b(%rip),%xmm8 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,23,144,1,0 // mulps 0x19017(%rip),%xmm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,5,239,139,1,0 // addps 0x18bef(%rip),%xmm8 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31843,13 +32212,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,246,141,1,0 // addps 0x18df6(%rip),%xmm1 # 399c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,40,13,222,135,1,0 // movaps 0x187de(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,13,218,143,1,0 // addps 0x18fda(%rip),%xmm1 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,40,13,194,137,1,0 // movaps 0x189c2(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,234,141,1,0 // mulps 0x18dea(%rip),%xmm9 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,13,194,137,1,0 // addps 0x189c2(%rip),%xmm9 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,13,206,143,1,0 // mulps 0x18fce(%rip),%xmm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,13,166,139,1,0 // addps 0x18ba6(%rip),%xmm9 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31862,16 +32231,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,157,141,1,0 // addps 0x18d9d(%rip),%xmm1 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,149,135,1,0 // movaps 0x18795(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,13,129,143,1,0 // addps 0x18f81(%rip),%xmm1 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,121,137,1,0 // movaps 0x18979(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,185,141,1,0 // movaps 0x18db9(%rip),%xmm8 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,5,157,143,1,0 // movaps 0x18f9d(%rip),%xmm8 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,189,141,1,0 // addps 0x18dbd(%rip),%xmm8 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,161,143,1,0 // addps 0x18fa1(%rip),%xmm8 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,97,135,1,0 // addps 0x18761(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,5,69,137,1,0 // addps 0x18945(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,181,141,1,0 // addps 0x18db5(%rip),%xmm8 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,5,153,143,1,0 // addps 0x18f99(%rip),%xmm8 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31881,17 +32250,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,63,135,1,0 // movaps 0x1873f(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,35,137,1,0 // movaps 0x18923(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,103,141,1,0 // movaps 0x18d67(%rip),%xmm10 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,21,75,143,1,0 // movaps 0x18f4b(%rip),%xmm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,107,141,1,0 // addps 0x18d6b(%rip),%xmm10 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,79,143,1,0 // addps 0x18f4f(%rip),%xmm10 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,103,141,1,0 // addps 0x18d67(%rip),%xmm10 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,21,75,143,1,0 // addps 0x18f4b(%rip),%xmm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31903,11 +32272,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,54,141,1,0 // addps 0x18d36(%rip),%xmm1 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 15,88,13,26,143,1,0 // addps 0x18f1a(%rip),%xmm1 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,6,141,1,0 // mulps 0x18d06(%rip),%xmm8 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,5,222,136,1,0 // addps 0x188de(%rip),%xmm8 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,234,142,1,0 // mulps 0x18eea(%rip),%xmm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,5,194,138,1,0 // addps 0x18ac2(%rip),%xmm8 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32018,7 +32387,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,241,139,1,0 // movaps 0x18bf1(%rip),%xmm4 # 39a10 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 15,40,37,213,141,1,0 // movaps 0x18dd5(%rip),%xmm4 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -32057,7 +32426,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,72,139,1,0 // movdqa 0x18b48(%rip),%xmm12 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,68,15,111,37,44,141,1,0 // movdqa 0x18d2c(%rip),%xmm12 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -32080,7 +32449,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,140,132,1,0 // movdqa 0x1848c(%rip),%xmm4 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,111,37,112,134,1,0 // movdqa 0x18670(%rip),%xmm4 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -32253,7 +32622,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,87,135,1,0 // movdqa 0x18757(%rip),%xmm5 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,45,59,137,1,0 // movdqa 0x1893b(%rip),%xmm5 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -32274,7 +32643,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,168,128,1,0 // movdqa 0x180a8(%rip),%xmm7 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,111,61,140,130,1,0 // movdqa 0x1828c(%rip),%xmm7 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -32340,7 +32709,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,147,133,1,0 // movdqa 0x18593(%rip),%xmm1 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,13,119,135,1,0 // movdqa 0x18777(%rip),%xmm1 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -32361,7 +32730,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,222,126,1,0 // movdqa 0x17ede(%rip),%xmm2 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,111,21,194,128,1,0 // movdqa 0x180c2(%rip),%xmm2 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -32488,7 +32857,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,241,130,1,0 // movaps 0x182f1(%rip),%xmm3 # 39a10 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 15,40,29,213,132,1,0 // movaps 0x184d5(%rip),%xmm3 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -32545,7 +32914,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,240,129,1,0 // movdqa 0x181f0(%rip),%xmm11 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,68,15,111,29,212,131,1,0 // movdqa 0x183d4(%rip),%xmm11 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -32567,7 +32936,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,56,123,1,0 // movdqa 0x17b38(%rip),%xmm10 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,21,28,125,1,0 // movdqa 0x17d1c(%rip),%xmm10 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -32585,7 +32954,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,38,129,1,0 // psubd 0x18126(%rip),%xmm3 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,29,10,131,1,0 // psubd 0x1830a(%rip),%xmm3 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -32640,7 +33009,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,6,128,1,0 // psubd 0x18006(%rip),%xmm5 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,45,234,129,1,0 // psubd 0x181ea(%rip),%xmm5 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -32765,7 +33134,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,42,119,1,0 // movdqa 0x1772a(%rip),%xmm7 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,111,61,14,121,1,0 // movdqa 0x1790e(%rip),%xmm7 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -32851,7 +33220,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,110,117,1,0 // movdqa 0x1756e(%rip),%xmm10 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,21,82,119,1,0 // movdqa 0x17752(%rip),%xmm10 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -32947,7 +33316,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,200,121,1,0 // movdqa 0x179c8(%rip),%xmm2 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,21,172,123,1,0 // movdqa 0x17bac(%rip),%xmm2 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -32968,7 +33337,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,23,115,1,0 // movdqa 0x17317(%rip),%xmm4 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,111,37,251,116,1,0 // movdqa 0x174fb(%rip),%xmm4 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -33040,7 +33409,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,243,119,1,0 // psubd 0x177f3(%rip),%xmm2 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,21,215,121,1,0 // psubd 0x179d7(%rip),%xmm2 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -33074,7 +33443,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,63,119,1,0 // psubd 0x1773f(%rip),%xmm1 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,13,35,121,1,0 // psubd 0x17923(%rip),%xmm1 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -33139,7 +33508,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,214,117,1,0 // movdqa 0x175d6(%rip),%xmm4 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,37,186,119,1,0 // movdqa 0x177ba(%rip),%xmm4 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33160,7 +33529,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,39,111,1,0 // movdqa 0x16f27(%rip),%xmm3 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,111,29,11,113,1,0 // movdqa 0x1710b(%rip),%xmm3 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -33232,7 +33601,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,7,116,1,0 // psubd 0x17407(%rip),%xmm0 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,5,235,117,1,0 // psubd 0x175eb(%rip),%xmm0 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -33250,7 +33619,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,85,109,1,0 // paddd 0x16d55(%rip),%xmm0 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,5,57,111,1,0 // paddd 0x16f39(%rip),%xmm0 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -33266,7 +33635,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,78,115,1,0 // psubd 0x1734e(%rip),%xmm0 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,5,50,117,1,0 // psubd 0x17532(%rip),%xmm0 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -33284,7 +33653,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,156,108,1,0 // paddd 0x16c9c(%rip),%xmm0 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,5,128,110,1,0 // paddd 0x16e80(%rip),%xmm0 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -33347,7 +33716,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,89,107,1,0 // movaps 0x16b59(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,61,109,1,0 // movaps 0x16d3d(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -33366,15 +33735,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,182,113,1,0 // movaps 0x171b6(%rip),%xmm0 # 39a40 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
+ .byte 15,40,5,154,115,1,0 // movaps 0x1739a(%rip),%xmm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,188,113,1,0 // addps 0x171bc(%rip),%xmm0 # 39a50 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
+ .byte 15,88,5,160,115,1,0 // addps 0x173a0(%rip),%xmm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,194,113,1,0 // addps 0x171c2(%rip),%xmm0 # 39a60 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
+ .byte 15,88,5,166,115,1,0 // addps 0x173a6(%rip),%xmm0 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,200,113,1,0 // addps 0x171c8(%rip),%xmm0 # 39a70 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
+ .byte 15,88,5,172,115,1,0 // addps 0x173ac(%rip),%xmm0 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,206,113,1,0 // addps 0x171ce(%rip),%xmm0 # 39a80 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
+ .byte 15,88,5,178,115,1,0 // addps 0x173b2(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -33402,13 +33771,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 22975 <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 23051 <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 22943 <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 2301f <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -33427,10 +33796,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2290c <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 22fe8 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2296c <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 23048 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -33444,7 +33813,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 228fe <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 22fda <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -33473,9 +33842,9 @@ _sk_seed_shader_sse2:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,244,105,1,0 // addps 0x169f4(%rip),%xmm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,216,107,1,0 // addps 0x16bd8(%rip),%xmm1 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,251,105,1,0 // movaps 0x169fb(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,223,107,1,0 // movaps 0x16bdf(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -33490,18 +33859,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,164,105,1,0 // paddd 0x169a4(%rip),%xmm8 # 39380 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
+ .byte 102,68,15,254,5,136,107,1,0 // paddd 0x16b88(%rip),%xmm8 # 39c40 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,203,105,1,0 // movdqa 0x169cb(%rip),%xmm10 # 393c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
+ .byte 102,68,15,111,21,175,107,1,0 // movdqa 0x16baf(%rip),%xmm10 # 39c80 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,183,105,1,0 // movdqa 0x169b7(%rip),%xmm12 # 393d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
- .byte 102,68,15,111,45,190,105,1,0 // movdqa 0x169be(%rip),%xmm13 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,37,155,107,1,0 // movdqa 0x16b9b(%rip),%xmm12 # 39c90 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,45,162,107,1,0 // movdqa 0x16ba2(%rip),%xmm13 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -33517,8 +33886,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,121,105,1,0 // mulps 0x16979(%rip),%xmm8 # 393f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- .byte 68,15,88,5,129,105,1,0 // addps 0x16981(%rip),%xmm8 # 39400 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,89,5,93,107,1,0 // mulps 0x16b5d(%rip),%xmm8 # 39cb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
+ .byte 68,15,88,5,101,107,1,0 // addps 0x16b65(%rip),%xmm8 # 39cc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -33560,7 +33929,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,183,104,1,0 // movaps 0x168b7(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,155,106,1,0 // movaps 0x16a9b(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -33571,7 +33940,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,163,104,1,0 // movaps 0x168a3(%rip),%xmm0 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,5,135,106,1,0 // movaps 0x16a87(%rip),%xmm0 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -33617,7 +33986,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,83,104,1,0 // movaps 0x16853(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,55,106,1,0 // movaps 0x16a37(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -33642,7 +34011,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,6,104,1,0 // movaps 0x16806(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,234,105,1,0 // movaps 0x169ea(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -33689,7 +34058,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,154,103,1,0 // movaps 0x1679a(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,126,105,1,0 // movaps 0x1697e(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -33702,7 +34071,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,122,103,1,0 // movaps 0x1677a(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,94,105,1,0 // movaps 0x1695e(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -33719,7 +34088,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,77,103,1,0 // movaps 0x1674d(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,49,105,1,0 // movaps 0x16931(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -33739,7 +34108,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,17,103,1,0 // movaps 0x16711(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,245,104,1,0 // movaps 0x168f5(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -33767,7 +34136,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,213,102,1,0 // movaps 0x166d5(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,185,104,1,0 // movaps 0x168b9(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -33805,7 +34174,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,86,102,1,0 // movaps 0x16656(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,58,104,1,0 // movaps 0x1683a(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -33847,7 +34216,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,226,101,1,0 // movaps 0x165e2(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,198,103,1,0 // movaps 0x167c6(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -33895,7 +34264,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,61,101,1,0 // movaps 0x1653d(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,33,103,1,0 // movaps 0x16721(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -33929,7 +34298,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,210,100,1,0 // movaps 0x164d2(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,182,102,1,0 // movaps 0x166b6(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -33966,7 +34335,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,92,100,1,0 // movaps 0x1645c(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,64,102,1,0 // movaps 0x16640(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -33994,7 +34363,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,12,100,1,0 // movaps 0x1640c(%rip),%xmm2 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,21,240,101,1,0 // movaps 0x165f0(%rip),%xmm2 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34007,7 +34376,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,239,99,1,0 // movaps 0x163ef(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,211,101,1,0 // movaps 0x165d3(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -34102,7 +34471,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,151,98,1,0 // movaps 0x16297(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,123,100,1,0 // movaps 0x1647b(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -34194,7 +34563,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,64,97,1,0 // movaps 0x16140(%rip),%xmm11 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,29,36,99,1,0 // movaps 0x16324(%rip),%xmm11 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -34282,7 +34651,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,254,95,1,0 // movaps 0x15ffe(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,226,97,1,0 // movaps 0x161e2(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -34373,7 +34742,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,171,94,1,0 // movaps 0x15eab(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,143,96,1,0 // movaps 0x1608f(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -34386,10 +34755,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,213,94,1,0 // movaps 0x15ed5(%rip),%xmm14 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,53,185,96,1,0 // movaps 0x160b9(%rip),%xmm14 # 39cd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,213,94,1,0 // movaps 0x15ed5(%rip),%xmm10 # 39420 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,21,185,96,1,0 // movaps 0x160b9(%rip),%xmm10 # 39ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -34534,7 +34903,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,104,92,1,0 // movaps 0x15c68(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,76,94,1,0 // movaps 0x15e4c(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -34582,12 +34951,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,37,92,1,0 // movaps 0x15c25(%rip),%xmm15 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,61,9,94,1,0 // movaps 0x15e09(%rip),%xmm15 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,42,92,1,0 // movaps 0x15c2a(%rip),%xmm0 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 15,40,5,14,94,1,0 // movaps 0x15e0e(%rip),%xmm0 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,44,92,1,0 // movaps 0x15c2c(%rip),%xmm14 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,53,16,94,1,0 // movaps 0x15e10(%rip),%xmm14 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -34765,14 +35134,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,126,89,1,0 // movaps 0x1597e(%rip),%xmm8 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,5,98,91,1,0 // movaps 0x15b62(%rip),%xmm8 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,128,89,1,0 // movaps 0x15980(%rip),%xmm1 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 15,40,13,100,91,1,0 // movaps 0x15b64(%rip),%xmm1 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,127,89,1,0 // movaps 0x1597f(%rip),%xmm12 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,37,99,91,1,0 // movaps 0x15b63(%rip),%xmm12 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -34817,7 +35186,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,52,88,1,0 // movaps 0x15834(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,24,90,1,0 // movaps 0x15a18(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -34918,14 +35287,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,66,87,1,0 // movaps 0x15742(%rip),%xmm13 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,45,38,89,1,0 // movaps 0x15926(%rip),%xmm13 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,66,87,1,0 // movaps 0x15742(%rip),%xmm14 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,53,38,89,1,0 // movaps 0x15926(%rip),%xmm14 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,62,87,1,0 // movaps 0x1573e(%rip),%xmm11 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,29,34,89,1,0 // movaps 0x15922(%rip),%xmm11 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -34933,7 +35302,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,122,86,1,0 // movaps 0x1567a(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,94,88,1,0 // movaps 0x1585e(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -35069,15 +35438,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,1,85,1,0 // movaps 0x15501(%rip),%xmm12 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,37,229,86,1,0 // movaps 0x156e5(%rip),%xmm12 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,1,85,1,0 // movaps 0x15501(%rip),%xmm13 # 39440 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,45,229,86,1,0 // movaps 0x156e5(%rip),%xmm13 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,253,84,1,0 // movaps 0x154fd(%rip),%xmm11 # 39450 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- .byte 68,15,40,5,85,84,1,0 // movaps 0x15455(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,29,225,86,1,0 // movaps 0x156e1(%rip),%xmm11 # 39d10 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 68,15,40,5,57,86,1,0 // movaps 0x15639(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -35218,10 +35587,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 24246 <_sk_srcover_rgba_8888_sse2+0x104>
+ .byte 15,133,228,0,0,0 // jne 24922 <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,237,82,1,0 // movdqa 0x152ed(%rip),%xmm6 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,53,209,84,1,0 // movdqa 0x154d1(%rip),%xmm6 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -35235,9 +35604,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,253,81,1,0 // movaps 0x151fd(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,225,83,1,0 // movaps 0x153e1(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,209,82,1,0 // movaps 0x152d1(%rip),%xmm12 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,37,181,84,1,0 // movaps 0x154b5(%rip),%xmm12 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35263,7 +35632,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 24280 <_sk_srcover_rgba_8888_sse2+0x13e>
+ .byte 117,84 // jne 2495c <_sk_srcover_rgba_8888_sse2+0x13e>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -35274,32 +35643,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 242ad <_sk_srcover_rgba_8888_sse2+0x16b>
+ .byte 116,90 // je 24989 <_sk_srcover_rgba_8888_sse2+0x16b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24275 <_sk_srcover_rgba_8888_sse2+0x133>
+ .byte 116,23 // je 24951 <_sk_srcover_rgba_8888_sse2+0x133>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 24168 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 15,133,0,255,255,255 // jne 24844 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 24168 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,232,254,255,255 // jmpq 24844 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 242b8 <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,43 // je 24994 <_sk_srcover_rgba_8888_sse2+0x176>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 242a5 <_sk_srcover_rgba_8888_sse2+0x163>
+ .byte 116,18 // je 24981 <_sk_srcover_rgba_8888_sse2+0x163>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 24232 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 117,153 // jne 2490e <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 24232 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 235,133 // jmp 2490e <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 24168 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,176,254,255,255 // jmpq 24844 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 24232 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 233,111,255,255,255 // jmpq 2490e <_sk_srcover_rgba_8888_sse2+0xf0>
HIDDEN _sk_srcover_bgra_8888_sse2
.globl _sk_srcover_bgra_8888_sse2
@@ -35313,10 +35682,10 @@ _sk_srcover_bgra_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 243c7 <_sk_srcover_bgra_8888_sse2+0x104>
+ .byte 15,133,228,0,0,0 // jne 24aa3 <_sk_srcover_bgra_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,108,81,1,0 // movdqa 0x1516c(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,37,80,83,1,0 // movdqa 0x15350(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
@@ -35330,9 +35699,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,91,231 // cvtdq2ps %xmm7,%xmm4
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,124,80,1,0 // movaps 0x1507c(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,96,82,1,0 // movaps 0x15260(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,80,81,1,0 // movaps 0x15150(%rip),%xmm12 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,37,52,83,1,0 // movaps 0x15334(%rip),%xmm12 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35358,7 +35727,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 24401 <_sk_srcover_bgra_8888_sse2+0x13e>
+ .byte 117,84 // jne 24add <_sk_srcover_bgra_8888_sse2+0x13e>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -35369,32 +35738,32 @@ _sk_srcover_bgra_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 2442e <_sk_srcover_bgra_8888_sse2+0x16b>
+ .byte 116,90 // je 24b0a <_sk_srcover_bgra_8888_sse2+0x16b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 243f6 <_sk_srcover_bgra_8888_sse2+0x133>
+ .byte 116,23 // je 24ad2 <_sk_srcover_bgra_8888_sse2+0x133>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 242e9 <_sk_srcover_bgra_8888_sse2+0x26>
+ .byte 15,133,0,255,255,255 // jne 249c5 <_sk_srcover_bgra_8888_sse2+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 242e9 <_sk_srcover_bgra_8888_sse2+0x26>
+ .byte 233,232,254,255,255 // jmpq 249c5 <_sk_srcover_bgra_8888_sse2+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 24439 <_sk_srcover_bgra_8888_sse2+0x176>
+ .byte 116,43 // je 24b15 <_sk_srcover_bgra_8888_sse2+0x176>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 24426 <_sk_srcover_bgra_8888_sse2+0x163>
+ .byte 116,18 // je 24b02 <_sk_srcover_bgra_8888_sse2+0x163>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 243b3 <_sk_srcover_bgra_8888_sse2+0xf0>
+ .byte 117,153 // jne 24a8f <_sk_srcover_bgra_8888_sse2+0xf0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 243b3 <_sk_srcover_bgra_8888_sse2+0xf0>
+ .byte 235,133 // jmp 24a8f <_sk_srcover_bgra_8888_sse2+0xf0>
.byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 242e9 <_sk_srcover_bgra_8888_sse2+0x26>
+ .byte 233,176,254,255,255 // jmpq 249c5 <_sk_srcover_bgra_8888_sse2+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 243b3 <_sk_srcover_bgra_8888_sse2+0xf0>
+ .byte 233,111,255,255,255 // jmpq 24a8f <_sk_srcover_bgra_8888_sse2+0xf0>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -35412,7 +35781,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,76,79,1,0 // movaps 0x14f4c(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,48,81,1,0 // movaps 0x15130(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -35424,7 +35793,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,49,79,1,0 // minps 0x14f31(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,93,29,21,81,1,0 // minps 0x15115(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -35435,7 +35804,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,29,79,1,0 // minps 0x14f1d(%rip),%xmm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,93,61,1,81,1,0 // minps 0x15101(%rip),%xmm7 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -35470,7 +35839,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,217,78,1,0 // movaps 0x14ed9(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,189,80,1,0 // movaps 0x150bd(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -35531,10 +35900,10 @@ HIDDEN _sk_unpremul_sse2
.globl _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
- .byte 68,15,40,5,103,78,1,0 // movaps 0x14e67(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,75,80,1,0 // movaps 0x1504b(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,70,79,1,0,1 // cmpltps 0x14f46(%rip),%xmm9 # 394a0 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
+ .byte 68,15,194,13,42,81,1,0,1 // cmpltps 0x1512a(%rip),%xmm9 # 39d60 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -35546,20 +35915,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,58,79,1,0 // movaps 0x14f3a(%rip),%xmm8 # 394b0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,5,30,81,1,0 // movaps 0x1511e(%rip),%xmm8 # 39d70 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,162,78,1,0 // movaps 0x14ea2(%rip),%xmm9 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,13,134,80,1,0 // movaps 0x15086(%rip),%xmm9 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,34,79,1,0 // movaps 0x14f22(%rip),%xmm10 # 394c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,21,6,81,1,0 // movaps 0x15106(%rip),%xmm10 # 39d80 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,34,79,1,0 // movaps 0x14f22(%rip),%xmm11 # 394d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,29,6,81,1,0 // movaps 0x15106(%rip),%xmm11 # 39d90 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,38,79,1,0 // movaps 0x14f26(%rip),%xmm12 # 394e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
+ .byte 68,15,40,37,10,81,1,0 // movaps 0x1510a(%rip),%xmm12 # 39da0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -35595,20 +35964,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,119,78,1,0 // movaps 0x14e77(%rip),%xmm8 # 394b0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,5,91,80,1,0 // movaps 0x1505b(%rip),%xmm8 # 39d70 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,223,77,1,0 // movaps 0x14ddf(%rip),%xmm9 # 39430 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,13,195,79,1,0 // movaps 0x14fc3(%rip),%xmm9 # 39cf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,95,78,1,0 // movaps 0x14e5f(%rip),%xmm10 # 394c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,21,67,80,1,0 // movaps 0x15043(%rip),%xmm10 # 39d80 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,95,78,1,0 // movaps 0x14e5f(%rip),%xmm11 # 394d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,29,67,80,1,0 // movaps 0x15043(%rip),%xmm11 # 39d90 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,99,78,1,0 // movaps 0x14e63(%rip),%xmm12 # 394e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
+ .byte 68,15,40,37,71,80,1,0 // movaps 0x15047(%rip),%xmm12 # 39da0 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -35645,22 +36014,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,240,77,1,0 // movaps 0x14df0(%rip),%xmm8 # 394f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,5,212,79,1,0 // movaps 0x14fd4(%rip),%xmm8 # 39db0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,240,77,1,0 // movaps 0x14df0(%rip),%xmm9 # 39500 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
+ .byte 68,15,40,13,212,79,1,0 // movaps 0x14fd4(%rip),%xmm9 # 39dc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,240,77,1,0 // movaps 0x14df0(%rip),%xmm10 # 39510 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
+ .byte 68,15,40,21,212,79,1,0 // movaps 0x14fd4(%rip),%xmm10 # 39dd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,240,77,1,0 // movaps 0x14df0(%rip),%xmm11 # 39520 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
+ .byte 68,15,40,29,212,79,1,0 // movaps 0x14fd4(%rip),%xmm11 # 39de0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,244,77,1,0 // movaps 0x14df4(%rip),%xmm12 # 39530 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
+ .byte 68,15,40,37,216,79,1,0 // movaps 0x14fd8(%rip),%xmm12 # 39df0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,240,77,1,0 // movaps 0x14df0(%rip),%xmm15 # 39540 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
+ .byte 68,15,40,61,212,79,1,0 // movaps 0x14fd4(%rip),%xmm15 # 39e00 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -35712,7 +36081,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,163,75,1,0 // movaps 0x14ba3(%rip),%xmm13 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,45,135,77,1,0 // movaps 0x14d87(%rip),%xmm13 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -35721,30 +36090,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,25,77,1,0 // andps 0x14d19(%rip),%xmm14 # 39550 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
+ .byte 68,15,84,53,253,78,1,0 // andps 0x14efd(%rip),%xmm14 # 39e10 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,12,77,1,0 // movaps 0x14d0c(%rip),%xmm12 # 39560 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
+ .byte 68,15,40,37,240,78,1,0 // movaps 0x14ef0(%rip),%xmm12 # 39e20 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,8,77,1,0 // addps 0x14d08(%rip),%xmm8 # 39570 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 68,15,88,5,236,78,1,0 // addps 0x14eec(%rip),%xmm8 # 39e30 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,249,76,1,0 // mulps 0x14cf9(%rip),%xmm0 # 39580 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
+ .byte 15,89,5,221,78,1,0 // mulps 0x14edd(%rip),%xmm0 # 39e40 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,252,74,1,0 // movaps 0x14afc(%rip),%xmm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,224,76,1,0 // movaps 0x14ce0(%rip),%xmm9 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -35768,7 +36137,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,171,74,1,0 // movaps 0x14aab(%rip),%xmm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,143,76,1,0 // movaps 0x14c8f(%rip),%xmm9 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -35785,28 +36154,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,84,76,1,0 // movaps 0x14c54(%rip),%xmm0 # 39590 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
+ .byte 15,40,5,56,78,1,0 // movaps 0x14e38(%rip),%xmm0 # 39e50 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,92,74,1,0 // andps 0x14a5c(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,84,29,64,76,1,0 // andps 0x14c40(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,62,76,1,0 // movaps 0x14c3e(%rip),%xmm13 # 395a0 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,40,45,34,78,1,0 // movaps 0x14e22(%rip),%xmm13 # 39e60 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,254,75,1,0 // movaps 0x14bfe(%rip),%xmm2 # 39580 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
+ .byte 15,40,21,226,77,1,0 // movaps 0x14de2(%rip),%xmm2 # 39e40 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,190,75,1,0 // movaps 0x14bbe(%rip),%xmm1 # 39550 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
+ .byte 15,40,13,162,77,1,0 // movaps 0x14da2(%rip),%xmm1 # 39e10 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,212,75,1,0 // movaps 0x14bd4(%rip),%xmm5 # 39570 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 15,40,45,184,77,1,0 // movaps 0x14db8(%rip),%xmm5 # 39e30 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -35829,7 +36198,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,185,73,1,0 // andps 0x149b9(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,84,29,157,75,1,0 // andps 0x14b9d(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -35859,12 +36228,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,65,75,1,0 // addps 0x14b41(%rip),%xmm6 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,88,53,37,77,1,0 // addps 0x14d25(%rip),%xmm6 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,44,73,1,0 // andps 0x1492c(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,84,29,16,75,1,0 // andps 0x14b10(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -35928,13 +36297,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 24b85 <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 25261 <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,255,72,1,0 // pand 0x148ff(%rip),%xmm8 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,68,15,219,5,227,74,1,0 // pand 0x14ae3(%rip),%xmm8 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,83,74,1,0 // mulps 0x14a53(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,89,5,55,76,1,0 // mulps 0x14c37(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -35945,12 +36314,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 24bcf <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 252ab <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24bb4 <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 25290 <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 24b58 <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 25234 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -35959,10 +36328,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 24b58 <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 25234 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 24b58 <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 25234 <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -35976,20 +36345,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 24caa <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 25386 <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,191,73,1,0 // movdqa 0x149bf(%rip),%xmm8 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,68,15,111,5,163,75,1,0 // movdqa 0x14ba3(%rip),%xmm8 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,190,73,1,0 // mulps 0x149be(%rip),%xmm8 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,68,15,111,13,197,73,1,0 // movdqa 0x149c5(%rip),%xmm9 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 68,15,89,5,162,75,1,0 // mulps 0x14ba2(%rip),%xmm8 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,68,15,111,13,169,75,1,0 // movdqa 0x14ba9(%rip),%xmm9 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,196,73,1,0 // mulps 0x149c4(%rip),%xmm9 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,68,15,219,21,203,73,1,0 // pand 0x149cb(%rip),%xmm10 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,13,168,75,1,0 // mulps 0x14ba8(%rip),%xmm9 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,68,15,219,21,175,75,1,0 // pand 0x14baf(%rip),%xmm10 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,207,73,1,0 // mulps 0x149cf(%rip),%xmm10 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 68,15,89,21,179,75,1,0 // mulps 0x14bb3(%rip),%xmm10 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -36016,22 +36385,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 24cf3 <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 253cf <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 24cdd <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 253b9 <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 24c08 <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 252e4 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 24c08 <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 252e4 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 24c08 <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 252e4 <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -36066,13 +36435,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 24da3 <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 2547f <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,245,70,1,0 // pand 0x146f5(%rip),%xmm8 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,68,15,219,5,217,72,1,0 // pand 0x148d9(%rip),%xmm8 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,73,72,1,0 // mulps 0x14849(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,89,5,45,74,1,0 // mulps 0x14a2d(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -36090,12 +36459,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 24df0 <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 254cc <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24dd2 <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 254ae <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 24d62 <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 2543e <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36104,10 +36473,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 24d62 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 2543e <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 24d62 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 2543e <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -36121,20 +36490,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 24ecb <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 255a7 <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,158,71,1,0 // movdqa 0x1479e(%rip),%xmm9 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,68,15,111,13,130,73,1,0 // movdqa 0x14982(%rip),%xmm9 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,157,71,1,0 // mulps 0x1479d(%rip),%xmm9 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,68,15,111,21,164,71,1,0 // movdqa 0x147a4(%rip),%xmm10 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 68,15,89,13,129,73,1,0 // mulps 0x14981(%rip),%xmm9 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,68,15,111,21,136,73,1,0 // movdqa 0x14988(%rip),%xmm10 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,163,71,1,0 // mulps 0x147a3(%rip),%xmm11 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,68,15,219,5,170,71,1,0 // pand 0x147aa(%rip),%xmm8 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,29,135,73,1,0 // mulps 0x14987(%rip),%xmm11 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,68,15,219,5,142,73,1,0 // pand 0x1498e(%rip),%xmm8 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,174,71,1,0 // mulps 0x147ae(%rip),%xmm8 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 68,15,89,5,146,73,1,0 // mulps 0x14992(%rip),%xmm8 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -36163,22 +36532,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 24f14 <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 255f0 <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 24efe <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 255da <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 24e29 <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 25505 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 24e29 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 25505 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 24e29 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 25505 <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -36187,11 +36556,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 25053 <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 2572f <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,29,69,1,0 // movdqa 0x1451d(%rip),%xmm8 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,68,15,111,5,1,71,1,0 // movdqa 0x14701(%rip),%xmm8 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -36247,7 +36616,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,116,69,1,0 // mulps 0x14574(%rip),%xmm3 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,29,88,71,1,0 // mulps 0x14758(%rip),%xmm3 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -36255,18 +36624,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 2508d <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 25769 <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 25082 <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 2575e <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 24f37 <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 25613 <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 24f37 <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 25613 <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 24f37 <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 25613 <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -36276,7 +36645,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 2520b <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 258e7 <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -36287,7 +36656,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,78,69,1,0 // movdqa 0x1454e(%rip),%xmm2 # 39630 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
+ .byte 102,15,111,21,50,71,1,0 // movdqa 0x14732(%rip),%xmm2 # 39ef0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -36348,23 +36717,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,76,68,1,0 // mulps 0x1444c(%rip),%xmm3 # 39650 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,89,29,48,70,1,0 // mulps 0x14630(%rip),%xmm3 # 39f10 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 25224 <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 25900 <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 250bb <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 25797 <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 250bb <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 25797 <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 250bb <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 25797 <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -36374,7 +36743,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 253a8 <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 25a84 <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -36389,7 +36758,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,144,67,1,0 // movdqa 0x14390(%rip),%xmm8 # 39630 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
+ .byte 102,68,15,111,5,116,69,1,0 // movdqa 0x14574(%rip),%xmm8 # 39ef0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -36444,7 +36813,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,13,64,1,0 // movaps 0x1400d(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,241,65,1,0 // movaps 0x141f1(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -36452,21 +36821,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 253ce <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 25aaa <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 2527d <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 25959 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 253ff <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 25adb <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 2527d <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 25959 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 2527d <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 25959 <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -36476,7 +36845,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,122,64,1,0 // movaps 0x1407a(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,94,66,1,0 // movaps 0x1425e(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -36504,7 +36873,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,53,65,1,0 // movaps 0x14135(%rip),%xmm10 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,21,25,67,1,0 // movaps 0x14319(%rip),%xmm10 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -36623,7 +36992,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,117,63,1,0 // movaps 0x13f75(%rip),%xmm10 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,21,89,65,1,0 // movaps 0x14159(%rip),%xmm10 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -36821,15 +37190,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,65,61,1,0 // mulps 0x13d41(%rip),%xmm9 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,21,73,61,1,0 // andps 0x13d49(%rip),%xmm10 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,21,113,58,1,0 // orps 0x13a71(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,13,73,61,1,0 // addps 0x13d49(%rip),%xmm9 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 68,15,40,37,81,61,1,0 // movaps 0x13d51(%rip),%xmm12 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,13,37,63,1,0 // mulps 0x13f25(%rip),%xmm9 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,21,45,63,1,0 // andps 0x13f2d(%rip),%xmm10 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,21,85,60,1,0 // orps 0x13c55(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,13,45,63,1,0 // addps 0x13f2d(%rip),%xmm9 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,40,37,53,63,1,0 // movaps 0x13f35(%rip),%xmm12 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,81,61,1,0 // addps 0x13d51(%rip),%xmm10 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 68,15,40,37,89,61,1,0 // movaps 0x13d59(%rip),%xmm12 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,21,53,63,1,0 // addps 0x13f35(%rip),%xmm10 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,37,61,63,1,0 // movaps 0x13f3d(%rip),%xmm12 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -36837,22 +37206,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,51,58,1,0 // movaps 0x13a33(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,23,60,1,0 // movaps 0x13c17(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,39,61,1,0 // addps 0x13d27(%rip),%xmm9 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 68,15,40,37,47,61,1,0 // movaps 0x13d2f(%rip),%xmm12 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,13,11,63,1,0 // addps 0x13f0b(%rip),%xmm9 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,40,37,19,63,1,0 // movaps 0x13f13(%rip),%xmm12 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,47,61,1,0 // movaps 0x13d2f(%rip),%xmm12 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,37,19,63,1,0 // movaps 0x13f13(%rip),%xmm12 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,51,61,1,0 // movaps 0x13d33(%rip),%xmm13 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,45,23,63,1,0 // movaps 0x13f17(%rip),%xmm13 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,51,61,1,0 // mulps 0x13d33(%rip),%xmm13 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,89,45,23,63,1,0 // mulps 0x13f17(%rip),%xmm13 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -36888,15 +37257,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,3,60,1,0 // mulps 0x13c03(%rip),%xmm9 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,21,11,60,1,0 // andps 0x13c0b(%rip),%xmm10 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,21,51,57,1,0 // orps 0x13933(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,13,11,60,1,0 // addps 0x13c0b(%rip),%xmm9 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 68,15,40,37,19,60,1,0 // movaps 0x13c13(%rip),%xmm12 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,13,231,61,1,0 // mulps 0x13de7(%rip),%xmm9 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,21,239,61,1,0 // andps 0x13def(%rip),%xmm10 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,21,23,59,1,0 // orps 0x13b17(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,13,239,61,1,0 // addps 0x13def(%rip),%xmm9 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,40,37,247,61,1,0 // movaps 0x13df7(%rip),%xmm12 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,19,60,1,0 // addps 0x13c13(%rip),%xmm10 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 68,15,40,37,27,60,1,0 // movaps 0x13c1b(%rip),%xmm12 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,21,247,61,1,0 // addps 0x13df7(%rip),%xmm10 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,37,255,61,1,0 // movaps 0x13dff(%rip),%xmm12 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -36904,22 +37273,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,245,56,1,0 // movaps 0x138f5(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,217,58,1,0 // movaps 0x13ad9(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,233,59,1,0 // addps 0x13be9(%rip),%xmm9 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 68,15,40,37,241,59,1,0 // movaps 0x13bf1(%rip),%xmm12 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,13,205,61,1,0 // addps 0x13dcd(%rip),%xmm9 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,40,37,213,61,1,0 // movaps 0x13dd5(%rip),%xmm12 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,241,59,1,0 // movaps 0x13bf1(%rip),%xmm12 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,37,213,61,1,0 // movaps 0x13dd5(%rip),%xmm12 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,245,59,1,0 // movaps 0x13bf5(%rip),%xmm13 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,45,217,61,1,0 // movaps 0x13dd9(%rip),%xmm13 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,245,59,1,0 // mulps 0x13bf5(%rip),%xmm13 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,89,45,217,61,1,0 // mulps 0x13dd9(%rip),%xmm13 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -36955,15 +37324,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,197,58,1,0 // mulps 0x13ac5(%rip),%xmm9 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,21,205,58,1,0 // andps 0x13acd(%rip),%xmm10 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,21,245,55,1,0 // orps 0x137f5(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,13,205,58,1,0 // addps 0x13acd(%rip),%xmm9 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 68,15,40,37,213,58,1,0 // movaps 0x13ad5(%rip),%xmm12 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,13,169,60,1,0 // mulps 0x13ca9(%rip),%xmm9 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,21,177,60,1,0 // andps 0x13cb1(%rip),%xmm10 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,21,217,57,1,0 // orps 0x139d9(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,13,177,60,1,0 // addps 0x13cb1(%rip),%xmm9 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,40,37,185,60,1,0 // movaps 0x13cb9(%rip),%xmm12 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,213,58,1,0 // addps 0x13ad5(%rip),%xmm10 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 68,15,40,37,221,58,1,0 // movaps 0x13add(%rip),%xmm12 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,21,185,60,1,0 // addps 0x13cb9(%rip),%xmm10 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,37,193,60,1,0 // movaps 0x13cc1(%rip),%xmm12 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -36971,22 +37340,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,183,55,1,0 // movaps 0x137b7(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,155,57,1,0 // movaps 0x1399b(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,171,58,1,0 // addps 0x13aab(%rip),%xmm9 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 68,15,40,37,179,58,1,0 // movaps 0x13ab3(%rip),%xmm12 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,13,143,60,1,0 // addps 0x13c8f(%rip),%xmm9 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,40,37,151,60,1,0 // movaps 0x13c97(%rip),%xmm12 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,179,58,1,0 // movaps 0x13ab3(%rip),%xmm12 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,37,151,60,1,0 // movaps 0x13c97(%rip),%xmm12 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,183,58,1,0 // movaps 0x13ab7(%rip),%xmm13 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,45,155,60,1,0 // movaps 0x13c9b(%rip),%xmm13 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,183,58,1,0 // mulps 0x13ab7(%rip),%xmm13 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,89,45,155,60,1,0 // mulps 0x13c9b(%rip),%xmm13 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -37022,15 +37391,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,135,57,1,0 // mulps 0x13987(%rip),%xmm9 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 68,15,84,21,143,57,1,0 // andps 0x1398f(%rip),%xmm10 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,86,21,183,54,1,0 // orps 0x136b7(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,88,13,143,57,1,0 // addps 0x1398f(%rip),%xmm9 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- .byte 68,15,40,37,151,57,1,0 // movaps 0x13997(%rip),%xmm12 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,89,13,107,59,1,0 // mulps 0x13b6b(%rip),%xmm9 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,84,21,115,59,1,0 // andps 0x13b73(%rip),%xmm10 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,86,21,155,56,1,0 // orps 0x1389b(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,13,115,59,1,0 // addps 0x13b73(%rip),%xmm9 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,40,37,123,59,1,0 // movaps 0x13b7b(%rip),%xmm12 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,151,57,1,0 // addps 0x13997(%rip),%xmm10 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- .byte 68,15,40,37,159,57,1,0 // movaps 0x1399f(%rip),%xmm12 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,88,21,123,59,1,0 // addps 0x13b7b(%rip),%xmm10 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,37,131,59,1,0 // movaps 0x13b83(%rip),%xmm12 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -37038,22 +37407,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,121,54,1,0 // movaps 0x13679(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,93,56,1,0 // movaps 0x1385d(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,109,57,1,0 // addps 0x1396d(%rip),%xmm9 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- .byte 68,15,40,37,117,57,1,0 // movaps 0x13975(%rip),%xmm12 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,88,13,81,59,1,0 // addps 0x13b51(%rip),%xmm9 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,40,37,89,59,1,0 // movaps 0x13b59(%rip),%xmm12 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,117,57,1,0 // movaps 0x13975(%rip),%xmm12 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,37,89,59,1,0 // movaps 0x13b59(%rip),%xmm12 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,121,57,1,0 // movaps 0x13979(%rip),%xmm13 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,45,93,59,1,0 // movaps 0x13b5d(%rip),%xmm13 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,121,57,1,0 // mulps 0x13979(%rip),%xmm13 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,89,45,93,59,1,0 // mulps 0x13b5d(%rip),%xmm13 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -37078,19 +37447,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,132,56,1,0 // mulps 0x13884(%rip),%xmm0 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 15,84,21,141,56,1,0 // andps 0x1388d(%rip),%xmm2 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,53,181,53,1,0 // movaps 0x135b5(%rip),%xmm14 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,89,5,104,58,1,0 // mulps 0x13a68(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,84,21,113,58,1,0 // andps 0x13a71(%rip),%xmm2 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,153,55,1,0 // movaps 0x13799(%rip),%xmm14 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,137,56,1,0 // movaps 0x13889(%rip),%xmm12 # 39680 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,40,37,109,58,1,0 // movaps 0x13a6d(%rip),%xmm12 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,141,56,1,0 // movaps 0x1388d(%rip),%xmm11 # 39690 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,29,113,58,1,0 // movaps 0x13a71(%rip),%xmm11 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,139,56,1,0 // movaps 0x1388b(%rip),%xmm10 # 396a0 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,21,111,58,1,0 // movaps 0x13a6f(%rip),%xmm10 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,143,56,1,0 // movaps 0x1388f(%rip),%xmm13 # 396b0 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,115,58,1,0 // movaps 0x13a73(%rip),%xmm13 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37102,27 +37471,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,95,53,1,0 // movaps 0x1355f(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,67,55,1,0 // movaps 0x13743(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,91,56,1,0 // movaps 0x1385b(%rip),%xmm6 # 396c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,53,63,58,1,0 // movaps 0x13a3f(%rip),%xmm6 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,113,56,1,0 // movaps 0x13871(%rip),%xmm7 # 396e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 15,40,61,85,58,1,0 // movaps 0x13a55(%rip),%xmm7 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,81,56,1,0 // movaps 0x13851(%rip),%xmm4 # 396d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,40,37,53,58,1,0 // movaps 0x13a35(%rip),%xmm4 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,99,56,1,0 // movaps 0x13863(%rip),%xmm15 # 396f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,61,71,58,1,0 // movaps 0x13a47(%rip),%xmm15 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,191,55,1,0 // mulps 0x137bf(%rip),%xmm0 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 15,84,13,200,55,1,0 // andps 0x137c8(%rip),%xmm1 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,89,5,163,57,1,0 // mulps 0x139a3(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,84,13,172,57,1,0 // andps 0x139ac(%rip),%xmm1 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -37152,9 +37521,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,78,55,1,0 // mulps 0x1374e(%rip),%xmm0 # 39660 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- .byte 15,84,29,87,55,1,0 // andps 0x13757(%rip),%xmm3 # 39670 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 15,86,29,128,52,1,0 // orps 0x13480(%rip),%xmm3 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,89,5,50,57,1,0 // mulps 0x13932(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,84,29,59,57,1,0 // andps 0x1393b(%rip),%xmm3 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,86,29,100,54,1,0 // orps 0x13664(%rip),%xmm3 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -37176,7 +37545,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,141,55,1,0 // movaps 0x1378d(%rip),%xmm0 # 39700 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 15,40,5,113,57,1,0 // movaps 0x13971(%rip),%xmm0 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -37191,33 +37560,154 @@ _sk_gamma_sse2:
.byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_gamma_dst_sse2
+.globl _sk_gamma_dst_sse2
+FUNCTION(_sk_gamma_dst_sse2)
+_sk_gamma_dst_sse2:
+ .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
+ .byte 15,41,92,36,216 // movaps %xmm3,-0x28(%rsp)
+ .byte 15,41,84,36,200 // movaps %xmm2,-0x38(%rsp)
+ .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
+ .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
+ .byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
+ .byte 15,89,5,122,56,1,0 // mulps 0x1387a(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,84,37,131,56,1,0 // andps 0x13883(%rip),%xmm4 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,171,53,1,0 // movaps 0x135ab(%rip),%xmm14 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 65,15,86,230 // orps %xmm14,%xmm4
+ .byte 68,15,40,37,127,56,1,0 // movaps 0x1387f(%rip),%xmm12 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 65,15,88,196 // addps %xmm12,%xmm0
+ .byte 68,15,40,29,131,56,1,0 // movaps 0x13883(%rip),%xmm11 # 39f50 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 68,15,40,21,129,56,1,0 // movaps 0x13881(%rip),%xmm10 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 65,15,88,226 // addps %xmm10,%xmm4
+ .byte 68,15,40,45,133,56,1,0 // movaps 0x13885(%rip),%xmm13 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 65,15,40,205 // movaps %xmm13,%xmm1
+ .byte 15,94,204 // divps %xmm4,%xmm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 243,15,16,56 // movss (%rax),%xmm7
+ .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,194,209,1 // cmpltps %xmm1,%xmm2
+ .byte 68,15,40,13,88,53,1,0 // movaps 0x13558(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 65,15,84,209 // andps %xmm9,%xmm2
+ .byte 15,92,202 // subps %xmm2,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,92,209 // subps %xmm1,%xmm2
+ .byte 68,15,40,5,83,56,1,0 // movaps 0x13853(%rip),%xmm8 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 65,15,88,192 // addps %xmm8,%xmm0
+ .byte 15,40,37,104,56,1,0 // movaps 0x13868(%rip),%xmm4 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,92,218 // subps %xmm2,%xmm3
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,21,72,56,1,0 // movaps 0x13848(%rip),%xmm2 # 39f90 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 68,15,40,61,90,56,1,0 // movaps 0x1385a(%rip),%xmm15 # 39fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 65,15,40,207 // movaps %xmm15,%xmm1
+ .byte 15,94,203 // divps %xmm3,%xmm1
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
+ .byte 15,89,5,182,55,1,0 // mulps 0x137b6(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,84,45,191,55,1,0 // andps 0x137bf(%rip),%xmm5 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 65,15,86,238 // orps %xmm14,%xmm5
+ .byte 65,15,88,196 // addps %xmm12,%xmm0
+ .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 65,15,89,219 // mulps %xmm11,%xmm3
+ .byte 15,92,195 // subps %xmm3,%xmm0
+ .byte 65,15,88,234 // addps %xmm10,%xmm5
+ .byte 65,15,40,221 // movaps %xmm13,%xmm3
+ .byte 15,94,221 // divps %xmm5,%xmm3
+ .byte 15,92,195 // subps %xmm3,%xmm0
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 243,15,91,216 // cvttps2dq %xmm0,%xmm3
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,194,235,1 // cmpltps %xmm3,%xmm5
+ .byte 65,15,84,233 // andps %xmm9,%xmm5
+ .byte 15,92,221 // subps %xmm5,%xmm3
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,92,235 // subps %xmm3,%xmm5
+ .byte 65,15,88,192 // addps %xmm8,%xmm0
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,92,221 // subps %xmm5,%xmm3
+ .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 65,15,40,239 // movaps %xmm15,%xmm5
+ .byte 15,94,235 // divps %xmm3,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,91,198 // cvtdq2ps %xmm6,%xmm0
+ .byte 15,89,5,77,55,1,0 // mulps 0x1374d(%rip),%xmm0 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 15,84,53,86,55,1,0 // andps 0x13756(%rip),%xmm6 # 39f30 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 65,15,86,246 // orps %xmm14,%xmm6
+ .byte 65,15,88,196 // addps %xmm12,%xmm0
+ .byte 68,15,89,222 // mulps %xmm6,%xmm11
+ .byte 65,15,92,195 // subps %xmm11,%xmm0
+ .byte 65,15,88,242 // addps %xmm10,%xmm6
+ .byte 68,15,94,238 // divps %xmm6,%xmm13
+ .byte 65,15,92,197 // subps %xmm13,%xmm0
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 243,15,91,216 // cvttps2dq %xmm0,%xmm3
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,194,243,1 // cmpltps %xmm3,%xmm6
+ .byte 65,15,84,241 // andps %xmm9,%xmm6
+ .byte 15,92,222 // subps %xmm6,%xmm3
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,92,243 // subps %xmm3,%xmm6
+ .byte 65,15,88,192 // addps %xmm8,%xmm0
+ .byte 15,89,214 // mulps %xmm6,%xmm2
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,92,230 // subps %xmm6,%xmm4
+ .byte 68,15,94,252 // divps %xmm4,%xmm15
+ .byte 68,15,88,248 // addps %xmm0,%xmm15
+ .byte 15,40,5,144,55,1,0 // movaps 0x13790(%rip),%xmm0 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 68,15,89,248 // mulps %xmm0,%xmm15
+ .byte 102,15,91,225 // cvtps2dq %xmm1,%xmm4
+ .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
+ .byte 102,65,15,91,247 // cvtps2dq %xmm15,%xmm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,68,36,168 // movaps -0x58(%rsp),%xmm0
+ .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1
+ .byte 15,40,84,36,200 // movaps -0x38(%rsp),%xmm2
+ .byte 15,40,92,36,216 // movaps -0x28(%rsp),%xmm3
+ .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,98,55,1,0 // mulps 0x13762(%rip),%xmm0 # 39710 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- .byte 68,15,40,5,218,52,1,0 // movaps 0x134da(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 15,89,5,101,55,1,0 // mulps 0x13765(%rip),%xmm0 # 39fd0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
+ .byte 68,15,40,5,221,52,1,0 // movaps 0x134dd(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,94,55,1,0 // movaps 0x1375e(%rip),%xmm9 # 39720 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
+ .byte 68,15,40,13,97,55,1,0 // movaps 0x13761(%rip),%xmm9 # 39fe0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,91,55,1,0 // addps 0x1375b(%rip),%xmm0 # 39730 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- .byte 15,89,5,100,55,1,0 // mulps 0x13764(%rip),%xmm0 # 39740 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- .byte 15,89,13,109,55,1,0 // mulps 0x1376d(%rip),%xmm1 # 39750 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
+ .byte 15,88,5,94,55,1,0 // addps 0x1375e(%rip),%xmm0 # 39ff0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
+ .byte 15,89,5,103,55,1,0 // mulps 0x13767(%rip),%xmm0 # 3a000 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
+ .byte 15,89,13,112,55,1,0 // mulps 0x13770(%rip),%xmm1 # 3a010 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,115,55,1,0 // mulps 0x13773(%rip),%xmm2 # 39760 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
+ .byte 15,89,21,118,55,1,0 // mulps 0x13776(%rip),%xmm2 # 3a020 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,104,55,1,0 // movaps 0x13768(%rip),%xmm2 # 39770 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
+ .byte 15,40,21,107,55,1,0 // movaps 0x1376b(%rip),%xmm2 # 3a030 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,103,55,1,0 // movaps 0x13767(%rip),%xmm10 # 39780 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
+ .byte 68,15,40,21,106,55,1,0 // movaps 0x1376a(%rip),%xmm10 # 3a040 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,107,55,1,0 // movaps 0x1376b(%rip),%xmm11 # 39790 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
+ .byte 68,15,40,29,110,55,1,0 // movaps 0x1376e(%rip),%xmm11 # 3a050 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -37241,8 +37731,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,27,55,1,0 // mulps 0x1371b(%rip),%xmm8 # 397a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- .byte 15,89,21,36,55,1,0 // mulps 0x13724(%rip),%xmm2 # 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
+ .byte 68,15,89,5,30,55,1,0 // mulps 0x1371e(%rip),%xmm8 # 3a060 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
+ .byte 15,89,21,39,55,1,0 // mulps 0x13727(%rip),%xmm2 # 3a070 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37258,13 +37748,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 260da <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 26997 <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,158,51,1,0 // pand 0x1339e(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,5,161,51,1,0 // pand 0x133a1(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,244,52,1,0 // mulps 0x134f4(%rip),%xmm3 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,29,247,52,1,0 // mulps 0x134f7(%rip),%xmm3 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -37273,12 +37763,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 2611d <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 269da <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 26106 <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 269c3 <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 260ba <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 26977 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -37287,10 +37777,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 260ba <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 26977 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 260ba <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 26977 <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -37303,13 +37793,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 2616e <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 26a2b <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,10,51,1,0 // pand 0x1330a(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,37,13,51,1,0 // pand 0x1330d(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,96,52,1,0 // mulps 0x13460(%rip),%xmm7 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,61,99,52,1,0 // mulps 0x13463(%rip),%xmm7 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -37318,12 +37808,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 261b1 <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 26a6e <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 2619a <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 26a57 <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 2614e <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 26a0b <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -37332,10 +37822,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 2614e <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 26a0b <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 2614e <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 26a0b <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -37388,7 +37878,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,58,51,1,0 // mulps 0x1333a(%rip),%xmm3 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,29,61,51,1,0 // mulps 0x1333d(%rip),%xmm3 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -37405,7 +37895,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,225,49,1,0 // movaps 0x131e1(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,228,49,1,0 // movaps 0x131e4(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -37413,7 +37903,7 @@ _sk_store_a8_sse2:
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 262e0 <_sk_store_a8_sse2+0x4c>
+ .byte 117,13 // jne 26b9d <_sk_store_a8_sse2+0x4c>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37423,22 +37913,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 2632d <_sk_store_a8_sse2+0x99>
+ .byte 116,54 // je 26bea <_sk_store_a8_sse2+0x99>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 2630e <_sk_store_a8_sse2+0x7a>
+ .byte 116,17 // je 26bcb <_sk_store_a8_sse2+0x7a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 262dc <_sk_store_a8_sse2+0x48>
+ .byte 117,217 // jne 26b99 <_sk_store_a8_sse2+0x48>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,73,49,1,0 // pand 0x13149(%rip),%xmm8 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,68,15,219,5,76,49,1,0 // pand 0x1314c(%rip),%xmm8 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 262dc <_sk_store_a8_sse2+0x48>
+ .byte 235,175 // jmp 26b99 <_sk_store_a8_sse2+0x48>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 262dc <_sk_store_a8_sse2+0x48>
+ .byte 235,164 // jmp 26b99 <_sk_store_a8_sse2+0x48>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -37451,27 +37941,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 26381 <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 26c3e <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,250,48,1,0 // pand 0x130fa(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,5,253,48,1,0 // pand 0x130fd(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,80,50,1,0 // mulps 0x13250(%rip),%xmm0 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,5,83,50,1,0 // mulps 0x13253(%rip),%xmm0 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,55,48,1,0 // movaps 0x13037(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,58,48,1,0 // movaps 0x1303a(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 263c4 <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 26c81 <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 263ad <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 26c6a <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 2635e <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 26c1b <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -37480,10 +37970,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 2635e <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 26c1b <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 2635e <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 26c1b <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -37496,27 +37986,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 26418 <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 26cd5 <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,99,48,1,0 // pand 0x13063(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,219,37,102,48,1,0 // pand 0x13066(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,185,49,1,0 // mulps 0x131b9(%rip),%xmm4 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,37,188,49,1,0 // mulps 0x131bc(%rip),%xmm4 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,160,47,1,0 // movaps 0x12fa0(%rip),%xmm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,61,163,47,1,0 // movaps 0x12fa3(%rip),%xmm7 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 2645b <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 26d18 <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 26444 <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 26d01 <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 263f5 <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 26cb2 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -37525,10 +38015,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 263f5 <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 26cb2 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 263f5 <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 26cb2 <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -37581,9 +38071,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,144,48,1,0 // mulps 0x13090(%rip),%xmm0 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 15,89,5,147,48,1,0 // mulps 0x13093(%rip),%xmm0 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,119,46,1,0 // movaps 0x12e77(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,122,46,1,0 // movaps 0x12e7a(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -37600,42 +38090,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 265af <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 26e6c <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,98,48,1,0 // movdqa 0x13062(%rip),%xmm0 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,101,48,1,0 // movdqa 0x13065(%rip),%xmm0 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,100,48,1,0 // mulps 0x13064(%rip),%xmm0 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,13,108,48,1,0 // movdqa 0x1306c(%rip),%xmm1 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 15,89,5,103,48,1,0 // mulps 0x13067(%rip),%xmm0 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,13,111,48,1,0 // movdqa 0x1306f(%rip),%xmm1 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,110,48,1,0 // mulps 0x1306e(%rip),%xmm1 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,15,219,21,118,48,1,0 // pand 0x13076(%rip),%xmm2 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,13,113,48,1,0 // mulps 0x13071(%rip),%xmm1 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,15,219,21,121,48,1,0 // pand 0x13079(%rip),%xmm2 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,124,48,1,0 // mulps 0x1307c(%rip),%xmm2 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 15,89,21,127,48,1,0 // mulps 0x1307f(%rip),%xmm2 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,3,46,1,0 // movaps 0x12e03(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,6,46,1,0 // movaps 0x12e06(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 265ef <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 26eac <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 265db <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 26e98 <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 26566 <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 26e23 <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 26566 <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 26e23 <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 26566 <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 26e23 <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -37649,42 +38139,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 2666b <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 26f28 <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,166,47,1,0 // movdqa 0x12fa6(%rip),%xmm4 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,37,169,47,1,0 // movdqa 0x12fa9(%rip),%xmm4 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,168,47,1,0 // mulps 0x12fa8(%rip),%xmm4 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,45,176,47,1,0 // movdqa 0x12fb0(%rip),%xmm5 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 15,89,37,171,47,1,0 // mulps 0x12fab(%rip),%xmm4 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,45,179,47,1,0 // movdqa 0x12fb3(%rip),%xmm5 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,178,47,1,0 // mulps 0x12fb2(%rip),%xmm5 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,15,219,53,186,47,1,0 // pand 0x12fba(%rip),%xmm6 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,45,181,47,1,0 // mulps 0x12fb5(%rip),%xmm5 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,15,219,53,189,47,1,0 // pand 0x12fbd(%rip),%xmm6 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,192,47,1,0 // mulps 0x12fc0(%rip),%xmm6 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 15,89,53,195,47,1,0 // mulps 0x12fc3(%rip),%xmm6 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,71,45,1,0 // movaps 0x12d47(%rip),%xmm7 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,61,74,45,1,0 // movaps 0x12d4a(%rip),%xmm7 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 266ab <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 26f68 <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 26697 <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 26f54 <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 26622 <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 26edf <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 26622 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 26edf <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 26622 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 26edf <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -37733,19 +38223,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,85,46,1,0 // movdqa 0x12e55(%rip),%xmm0 # 395d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,88,46,1,0 // movdqa 0x12e58(%rip),%xmm0 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,87,46,1,0 // mulps 0x12e57(%rip),%xmm0 # 395e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- .byte 102,15,111,13,95,46,1,0 // movdqa 0x12e5f(%rip),%xmm1 # 395f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 15,89,5,90,46,1,0 // mulps 0x12e5a(%rip),%xmm0 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 102,15,111,13,98,46,1,0 // movdqa 0x12e62(%rip),%xmm1 # 39eb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,97,46,1,0 // mulps 0x12e61(%rip),%xmm1 # 39600 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- .byte 102,15,219,21,105,46,1,0 // pand 0x12e69(%rip),%xmm2 # 39610 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,13,100,46,1,0 // mulps 0x12e64(%rip),%xmm1 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 102,15,219,21,108,46,1,0 // pand 0x12e6c(%rip),%xmm2 # 39ed0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,111,46,1,0 // mulps 0x12e6f(%rip),%xmm2 # 39620 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 15,89,21,114,46,1,0 // mulps 0x12e72(%rip),%xmm2 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,246,43,1,0 // movaps 0x12bf6(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,249,43,1,0 // movaps 0x12bf9(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -37759,12 +38249,12 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,246,47,1,0 // movaps 0x12ff6(%rip),%xmm8 # 397d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
+ .byte 68,15,40,5,249,47,1,0 // movaps 0x12ff9(%rip),%xmm8 # 3a090 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,235,47,1,0 // movaps 0x12feb(%rip),%xmm10 # 397e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 68,15,40,21,238,47,1,0 // movaps 0x12fee(%rip),%xmm10 # 3a0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -37776,7 +38266,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26837 <_sk_store_565_sse2+0x7b>
+ .byte 117,10 // jne 270f4 <_sk_store_565_sse2+0x7b>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -37784,19 +38274,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 2686f <_sk_store_565_sse2+0xb3>
+ .byte 116,38 // je 2712c <_sk_store_565_sse2+0xb3>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 26861 <_sk_store_565_sse2+0xa5>
+ .byte 116,18 // je 2711e <_sk_store_565_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 26833 <_sk_store_565_sse2+0x77>
+ .byte 117,222 // jne 270f0 <_sk_store_565_sse2+0x77>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 26833 <_sk_store_565_sse2+0x77>
+ .byte 235,196 // jmp 270f0 <_sk_store_565_sse2+0x77>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 26833 <_sk_store_565_sse2+0x77>
+ .byte 235,184 // jmp 270f0 <_sk_store_565_sse2+0x77>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -37810,45 +38300,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 268f8 <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 271b5 <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,72,47,1,0 // movdqa 0x12f48(%rip),%xmm0 # 397f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,5,75,47,1,0 // movdqa 0x12f4b(%rip),%xmm0 # 3a0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,74,47,1,0 // mulps 0x12f4a(%rip),%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- .byte 102,15,111,13,82,47,1,0 // movdqa 0x12f52(%rip),%xmm1 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 15,89,5,77,47,1,0 // mulps 0x12f4d(%rip),%xmm0 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 102,15,111,13,85,47,1,0 // movdqa 0x12f55(%rip),%xmm1 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,84,47,1,0 // mulps 0x12f54(%rip),%xmm1 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- .byte 102,15,111,21,92,47,1,0 // movdqa 0x12f5c(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 15,89,13,87,47,1,0 // mulps 0x12f57(%rip),%xmm1 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 102,15,111,21,95,47,1,0 // movdqa 0x12f5f(%rip),%xmm2 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,94,47,1,0 // mulps 0x12f5e(%rip),%xmm2 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- .byte 102,15,219,29,102,47,1,0 // pand 0x12f66(%rip),%xmm3 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,21,97,47,1,0 // mulps 0x12f61(%rip),%xmm2 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 102,15,219,29,105,47,1,0 // pand 0x12f69(%rip),%xmm3 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,108,47,1,0 // mulps 0x12f6c(%rip),%xmm3 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 15,89,29,111,47,1,0 // mulps 0x12f6f(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 26938 <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 271f5 <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 26924 <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 271e1 <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 268a0 <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 2715d <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 268a0 <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 2715d <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 268a0 <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 2715d <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -37862,45 +38352,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 269c3 <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 27280 <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,125,46,1,0 // movdqa 0x12e7d(%rip),%xmm4 # 397f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,37,128,46,1,0 // movdqa 0x12e80(%rip),%xmm4 # 3a0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,127,46,1,0 // mulps 0x12e7f(%rip),%xmm4 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- .byte 102,15,111,45,135,46,1,0 // movdqa 0x12e87(%rip),%xmm5 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 15,89,37,130,46,1,0 // mulps 0x12e82(%rip),%xmm4 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 102,15,111,45,138,46,1,0 // movdqa 0x12e8a(%rip),%xmm5 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,137,46,1,0 // mulps 0x12e89(%rip),%xmm5 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- .byte 102,15,111,53,145,46,1,0 // movdqa 0x12e91(%rip),%xmm6 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 15,89,45,140,46,1,0 // mulps 0x12e8c(%rip),%xmm5 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 102,15,111,53,148,46,1,0 // movdqa 0x12e94(%rip),%xmm6 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,147,46,1,0 // mulps 0x12e93(%rip),%xmm6 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- .byte 102,15,219,61,155,46,1,0 // pand 0x12e9b(%rip),%xmm7 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,53,150,46,1,0 // mulps 0x12e96(%rip),%xmm6 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 102,15,219,61,158,46,1,0 // pand 0x12e9e(%rip),%xmm7 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,161,46,1,0 // mulps 0x12ea1(%rip),%xmm7 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 15,89,61,164,46,1,0 // mulps 0x12ea4(%rip),%xmm7 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 26a03 <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 272c0 <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 269ef <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 272ac <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 2696b <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 27228 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 2696b <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 27228 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 2696b <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 27228 <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -37949,21 +38439,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,29,45,1,0 // movdqa 0x12d1d(%rip),%xmm0 # 397f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,5,32,45,1,0 // movdqa 0x12d20(%rip),%xmm0 # 3a0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,31,45,1,0 // mulps 0x12d1f(%rip),%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- .byte 102,15,111,13,39,45,1,0 // movdqa 0x12d27(%rip),%xmm1 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 15,89,5,34,45,1,0 // mulps 0x12d22(%rip),%xmm0 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 102,15,111,13,42,45,1,0 // movdqa 0x12d2a(%rip),%xmm1 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,41,45,1,0 // mulps 0x12d29(%rip),%xmm1 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- .byte 102,15,111,21,49,45,1,0 // movdqa 0x12d31(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 15,89,13,44,45,1,0 // mulps 0x12d2c(%rip),%xmm1 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 102,15,111,21,52,45,1,0 // movdqa 0x12d34(%rip),%xmm2 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,51,45,1,0 // mulps 0x12d33(%rip),%xmm2 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- .byte 102,15,219,29,59,45,1,0 // pand 0x12d3b(%rip),%xmm3 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,21,54,45,1,0 // mulps 0x12d36(%rip),%xmm2 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 102,15,219,29,62,45,1,0 // pand 0x12d3e(%rip),%xmm3 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,65,45,1,0 // mulps 0x12d41(%rip),%xmm3 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 15,89,29,68,45,1,0 // mulps 0x12d44(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -37978,7 +38468,7 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,47,45,1,0 // movaps 0x12d2f(%rip),%xmm8 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 68,15,40,5,50,45,1,0 // movaps 0x12d32(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38000,7 +38490,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26bb2 <_sk_store_4444_sse2+0x8f>
+ .byte 117,10 // jne 2746f <_sk_store_4444_sse2+0x8f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38008,19 +38498,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 26bea <_sk_store_4444_sse2+0xc7>
+ .byte 116,38 // je 274a7 <_sk_store_4444_sse2+0xc7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 26bdc <_sk_store_4444_sse2+0xb9>
+ .byte 116,18 // je 27499 <_sk_store_4444_sse2+0xb9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 26bae <_sk_store_4444_sse2+0x8b>
+ .byte 117,222 // jne 2746b <_sk_store_4444_sse2+0x8b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 26bae <_sk_store_4444_sse2+0x8b>
+ .byte 235,196 // jmp 2746b <_sk_store_4444_sse2+0x8b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 26bae <_sk_store_4444_sse2+0x8b>
+ .byte 235,184 // jmp 2746b <_sk_store_4444_sse2+0x8b>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -38034,13 +38524,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 26c74 <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 27531 <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,64,40,1,0 // movdqa 0x12840(%rip),%xmm2 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,21,67,40,1,0 // movdqa 0x12843(%rip),%xmm2 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,140,41,1,0 // movaps 0x1298c(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,143,41,1,0 // movaps 0x1298f(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -38060,18 +38550,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26caa <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 27567 <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26c9f <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 2755c <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 26c18 <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 274d5 <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 26c18 <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 274d5 <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 26c18 <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 274d5 <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -38085,13 +38575,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 26d33 <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 275f0 <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,129,39,1,0 // movdqa 0x12781(%rip),%xmm6 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,53,132,39,1,0 // movdqa 0x12784(%rip),%xmm6 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,205,40,1,0 // movaps 0x128cd(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,208,40,1,0 // movaps 0x128d0(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -38111,18 +38601,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26d69 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 27626 <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26d5e <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 2761b <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 26cd7 <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 27594 <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 26cd7 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 27594 <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 26cd7 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 27594 <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -38168,11 +38658,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,52,38,1,0 // movdqa 0x12634(%rip),%xmm2 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,21,55,38,1,0 // movdqa 0x12637(%rip),%xmm2 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,128,39,1,0 // movaps 0x12780(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,131,39,1,0 // movaps 0x12783(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -38201,7 +38691,7 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,241,37,1,0 // movaps 0x125f1(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,244,37,1,0 // movaps 0x125f4(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38220,24 +38710,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26eff <_sk_store_8888_sse2+0x7f>
+ .byte 117,10 // jne 277bc <_sk_store_8888_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 26f2d <_sk_store_8888_sse2+0xad>
+ .byte 116,33 // je 277ea <_sk_store_8888_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26f25 <_sk_store_8888_sse2+0xa5>
+ .byte 116,19 // je 277e2 <_sk_store_8888_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 26efb <_sk_store_8888_sse2+0x7b>
+ .byte 117,227 // jne 277b8 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 26efb <_sk_store_8888_sse2+0x7b>
+ .byte 235,206 // jmp 277b8 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 26efb <_sk_store_8888_sse2+0x7b>
+ .byte 235,198 // jmp 277b8 <_sk_store_8888_sse2+0x7b>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -38251,13 +38741,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 26fb3 <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 27870 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,1,37,1,0 // movdqa 0x12501(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,5,4,37,1,0 // movdqa 0x12504(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,77,38,1,0 // movaps 0x1264d(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,80,38,1,0 // movaps 0x12650(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -38277,18 +38767,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26fe9 <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 278a6 <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26fde <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 2789b <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 26f57 <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 27814 <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 26f57 <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 27814 <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 26f57 <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 27814 <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -38302,13 +38792,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 27072 <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 2792f <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,66,36,1,0 // movdqa 0x12442(%rip),%xmm4 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,37,69,36,1,0 // movdqa 0x12445(%rip),%xmm4 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,142,37,1,0 // movaps 0x1258e(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,145,37,1,0 // movaps 0x12591(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -38328,18 +38818,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 270a8 <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 27965 <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 2709d <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 2795a <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 27016 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 278d3 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 27016 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 278d3 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 27016 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 278d3 <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -38385,11 +38875,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,245,34,1,0 // movdqa 0x122f5(%rip),%xmm0 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,111,5,248,34,1,0 // movdqa 0x122f8(%rip),%xmm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,65,36,1,0 // movaps 0x12441(%rip),%xmm8 # 395c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 68,15,40,5,68,36,1,0 // movaps 0x12444(%rip),%xmm8 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -38418,7 +38908,7 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,178,34,1,0 // movaps 0x122b2(%rip),%xmm8 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,5,181,34,1,0 // movaps 0x122b5(%rip),%xmm8 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38437,24 +38927,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2723e <_sk_store_bgra_sse2+0x7f>
+ .byte 117,10 // jne 27afb <_sk_store_bgra_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 2726c <_sk_store_bgra_sse2+0xad>
+ .byte 116,33 // je 27b29 <_sk_store_bgra_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 27264 <_sk_store_bgra_sse2+0xa5>
+ .byte 116,19 // je 27b21 <_sk_store_bgra_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 2723a <_sk_store_bgra_sse2+0x7b>
+ .byte 117,227 // jne 27af7 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 2723a <_sk_store_bgra_sse2+0x7b>
+ .byte 235,206 // jmp 27af7 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 2723a <_sk_store_bgra_sse2+0x7b>
+ .byte 235,198 // jmp 27af7 <_sk_store_bgra_sse2+0x7b>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -38468,7 +38958,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 273c3 <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 27c80 <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -38480,18 +38970,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,172,37,1,0 // movdqa 0x125ac(%rip),%xmm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,13,175,37,1,0 // movdqa 0x125af(%rip),%xmm9 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,169,37,1,0 // movdqa 0x125a9(%rip),%xmm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,68,15,111,29,172,37,1,0 // movdqa 0x125ac(%rip),%xmm11 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,172,37,1,0 // movdqa 0x125ac(%rip),%xmm3 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,15,111,29,175,37,1,0 // movdqa 0x125af(%rip),%xmm3 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,155,37,1,0 // movdqa 0x1259b(%rip),%xmm12 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,37,158,37,1,0 // movdqa 0x1259e(%rip),%xmm12 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -38530,16 +39020,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 273dc <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 27c99 <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 272a1 <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 27b5e <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 272a1 <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 27b5e <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 272a1 <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 27b5e <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -38553,7 +39043,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 2754c <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 27e09 <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -38565,18 +39055,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,35,36,1,0 // movdqa 0x12423(%rip),%xmm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,13,38,36,1,0 // movdqa 0x12426(%rip),%xmm9 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,32,36,1,0 // movdqa 0x12420(%rip),%xmm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,68,15,111,29,35,36,1,0 // movdqa 0x12423(%rip),%xmm11 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,35,36,1,0 // movdqa 0x12423(%rip),%xmm7 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,15,111,61,38,36,1,0 // movdqa 0x12426(%rip),%xmm7 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,18,36,1,0 // movdqa 0x12412(%rip),%xmm12 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,37,21,36,1,0 // movdqa 0x12415(%rip),%xmm12 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -38615,16 +39105,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 27565 <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 27e22 <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 2742a <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 27ce7 <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 2742a <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 27ce7 <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 2742a <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 27ce7 <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -38678,18 +39168,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,33,34,1,0 // movdqa 0x12221(%rip),%xmm10 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,21,36,34,1,0 // movdqa 0x12224(%rip),%xmm10 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,30,34,1,0 // movdqa 0x1221e(%rip),%xmm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,68,15,111,29,33,34,1,0 // movdqa 0x12221(%rip),%xmm11 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,33,34,1,0 // movdqa 0x12221(%rip),%xmm3 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,15,111,29,36,34,1,0 // movdqa 0x12224(%rip),%xmm3 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,16,34,1,0 // movdqa 0x12210(%rip),%xmm12 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,37,19,34,1,0 // movdqa 0x12213(%rip),%xmm12 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -38732,19 +39222,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,100,33,1,0 // movdqa 0x12164(%rip),%xmm11 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 102,68,15,111,29,103,33,1,0 // movdqa 0x12167(%rip),%xmm11 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,97,33,1,0 // movdqa 0x12161(%rip),%xmm10 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 102,68,15,111,21,100,33,1,0 // movdqa 0x12164(%rip),%xmm10 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,95,33,1,0 // movdqa 0x1215f(%rip),%xmm7 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
- .byte 102,68,15,111,37,6,35,1,0 // movdqa 0x12306(%rip),%xmm12 # 39a90 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
+ .byte 102,15,111,61,98,33,1,0 // movdqa 0x12162(%rip),%xmm7 # 3a1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
+ .byte 102,68,15,111,37,9,35,1,0 // movdqa 0x12309(%rip),%xmm12 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,184,29,1,0 // movdqa 0x11db8(%rip),%xmm13 # 39560 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
+ .byte 102,68,15,111,45,187,29,1,0 // movdqa 0x11dbb(%rip),%xmm13 # 39e20 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -38800,7 +39290,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 278da <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 28197 <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -38813,13 +39303,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 278d1 <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 2818e <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 278d1 <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 2818e <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 278d1 <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 2818e <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -38834,7 +39324,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 279f0 <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 282ad <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -38851,7 +39341,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,205,28,1,0 // movaps 0x11ccd(%rip),%xmm8 # 39650 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,5,208,28,1,0 // movaps 0x11cd0(%rip),%xmm8 # 39f10 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -38879,16 +39369,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 27a09 <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 282c6 <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 2793f <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 281fc <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 2793f <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 281fc <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 2793f <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 281fc <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -38905,7 +39395,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 27b04 <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 283c1 <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -38926,7 +39416,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,151,27,1,0 // movaps 0x11b97(%rip),%xmm9 # 39650 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,13,154,27,1,0 // movaps 0x11b9a(%rip),%xmm9 # 39f10 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -38943,27 +39433,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,174,24,1,0 // movaps 0x118ae(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,177,24,1,0 // movaps 0x118b1(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 27b29 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 283e6 <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 27a79 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 28336 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 27b5a <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 28417 <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 27a79 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 28336 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 27a79 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 28336 <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -38977,7 +39467,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,119,29,1,0 // movaps 0x11d77(%rip),%xmm10 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
+ .byte 68,15,40,21,122,29,1,0 // movaps 0x11d7a(%rip),%xmm10 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -39022,7 +39512,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 27c83 <_sk_store_u16_be_sse2+0x120>
+ .byte 117,21 // jne 28540 <_sk_store_u16_be_sse2+0x120>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -39030,13 +39520,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 27c7f <_sk_store_u16_be_sse2+0x11c>
+ .byte 116,240 // je 2853c <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 27c7f <_sk_store_u16_be_sse2+0x11c>
+ .byte 114,227 // jb 2853c <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 27c7f <_sk_store_u16_be_sse2+0x11c>
+ .byte 235,213 // jmp 2853c <_sk_store_u16_be_sse2+0x11c>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -39052,7 +39542,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 27d15 <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 285d2 <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39072,17 +39562,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 27d27 <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 285e4 <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 27ce5 <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 285a2 <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 27d3b <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 285f8 <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 27ce5 <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 285a2 <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 27ce5 <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 285a2 <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -39098,7 +39588,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 27dab <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 28668 <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39118,17 +39608,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 27dbd <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 2867a <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 27d7b <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 28638 <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 27dd1 <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 2868e <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 27d7b <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 28638 <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 27d7b <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 28638 <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -39157,7 +39647,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 27e53 <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 28710 <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -39165,12 +39655,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 27e4f <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 2870c <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 27e4f <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 2870c <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 27e4f <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 2870c <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -39184,7 +39674,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,22,21,1,0 // andps 0x11516(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,84,13,25,21,1,0 // andps 0x11519(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -39204,7 +39694,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,213,20,1,0 // andps 0x114d5(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,84,13,216,20,1,0 // andps 0x114d8(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -39224,13 +39714,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,71,11,1,0 // mulss 0x10b47(%rip),%xmm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,74,11,1,0 // mulss 0x10b4a(%rip),%xmm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,116,20,1,0 // andps 0x11474(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,84,13,119,20,1,0 // andps 0x11477(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -39253,13 +39743,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,219,10,1,0 // mulss 0x10adb(%rip),%xmm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,222,10,1,0 // mulss 0x10ade(%rip),%xmm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,8,20,1,0 // andps 0x11408(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,84,13,11,20,1,0 // andps 0x1140b(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -39276,7 +39766,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,216,19,1,0 // minps 0x113d8(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,93,5,219,19,1,0 // minps 0x113db(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39289,7 +39779,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,182,19,1,0 // movaps 0x113b6(%rip),%xmm11 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,29,185,19,1,0 // movaps 0x113b9(%rip),%xmm11 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,211 // andps %xmm11,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -39304,14 +39794,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,238,19,1,0 // movaps 0x113ee(%rip),%xmm9 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,13,241,19,1,0 // movaps 0x113f1(%rip),%xmm9 # 39cd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,114,19,1,0 // movaps 0x11372(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,117,19,1,0 // movaps 0x11375(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,89,208 // mulps %xmm0,%xmm10
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,104,19,1,0 // movaps 0x11368(%rip),%xmm12 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,37,107,19,1,0 // movaps 0x1136b(%rip),%xmm12 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
@@ -39332,10 +39822,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,138,24,1,0 // mulps 0x1188a(%rip),%xmm0 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
- .byte 15,89,13,147,24,1,0 // mulps 0x11893(%rip),%xmm1 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
+ .byte 15,89,5,141,24,1,0 // mulps 0x1188d(%rip),%xmm0 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
+ .byte 15,89,13,150,24,1,0 // mulps 0x11896(%rip),%xmm1 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,153,24,1,0 // mulps 0x11899(%rip),%xmm3 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
+ .byte 15,89,29,156,24,1,0 // mulps 0x1189c(%rip),%xmm3 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -39647,9 +40137,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 28537 <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 28df4 <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 2854c <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 28e09 <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -39751,7 +40241,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 28710 <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 28fcd <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -39762,7 +40252,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 286f6 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 28fb3 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -39902,29 +40392,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,245,15,1,0 // movaps 0x10ff5(%rip),%xmm13 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,40,45,248,15,1,0 // movaps 0x10ff8(%rip),%xmm13 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,249,15,1,0 // addps 0x10ff9(%rip),%xmm13 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,88,45,252,15,1,0 // addps 0x10ffc(%rip),%xmm13 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,253,15,1,0 // addps 0x10ffd(%rip),%xmm13 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 68,15,88,45,0,16,1,0 // addps 0x11000(%rip),%xmm13 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,1,16,1,0 // addps 0x11001(%rip),%xmm13 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 68,15,88,45,4,16,1,0 // addps 0x11004(%rip),%xmm13 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,0,16,1,0 // movaps 0x11000(%rip),%xmm10 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,40,21,3,16,1,0 // movaps 0x11003(%rip),%xmm10 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,3,10,1,0 // movaps 0x10a03(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,6,10,1,0 // movaps 0x10a06(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,242,9,1,0 // movaps 0x109f2(%rip),%xmm10 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,21,245,9,1,0 // movaps 0x109f5(%rip),%xmm10 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -39960,7 +40450,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,102,15,1,0 // mulps 0x10f66(%rip),%xmm9 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,13,105,15,1,0 // mulps 0x10f69(%rip),%xmm9 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -39968,7 +40458,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,80,15,1,0 // mulps 0x10f50(%rip),%xmm10 # 399a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,89,21,83,15,1,0 // mulps 0x10f53(%rip),%xmm10 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -39976,7 +40466,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,45,9,1,0 // mulps 0x1092d(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,89,5,48,9,1,0 // mulps 0x10930(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39995,7 +40485,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,221,14,1,0 // mulps 0x10edd(%rip),%xmm9 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,13,224,14,1,0 // mulps 0x10ee0(%rip),%xmm9 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40003,16 +40493,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,199,14,1,0 // mulps 0x10ec7(%rip),%xmm10 # 399a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,89,21,202,14,1,0 // mulps 0x10eca(%rip),%xmm10 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,199,13,1,0 // xorps 0x10dc7(%rip),%xmm9 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 68,15,87,13,202,13,1,0 // xorps 0x10dca(%rip),%xmm9 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,156,8,1,0 // mulps 0x1089c(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,89,5,159,8,1,0 // mulps 0x1089f(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40027,7 +40517,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,96,14,1,0 // mulps 0x10e60(%rip),%xmm9 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,13,99,14,1,0 // mulps 0x10e63(%rip),%xmm9 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -40035,7 +40525,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,108,13,1,0 // xorps 0x10d6c(%rip),%xmm0 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 15,87,5,111,13,1,0 // xorps 0x10d6f(%rip),%xmm0 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40081,7 +40571,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,211,7,1,0 // movaps 0x107d3(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,214,7,1,0 // movaps 0x107d6(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -40089,7 +40579,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,190,7,1,0 // movaps 0x107be(%rip),%xmm12 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,37,193,7,1,0 // movaps 0x107c1(%rip),%xmm12 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -40136,8 +40626,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,30,13,1,0 // addps 0x10d1e(%rip),%xmm0 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,22,7,1,0 // movaps 0x10716(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,5,33,13,1,0 // addps 0x10d21(%rip),%xmm0 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,25,7,1,0 // movaps 0x10719(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40150,7 +40640,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,226,6,1,0 // addps 0x106e2(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,229,6,1,0 // addps 0x106e5(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40162,8 +40652,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,209,12,1,0 // addps 0x10cd1(%rip),%xmm1 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,201,6,1,0 // movaps 0x106c9(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,13,212,12,1,0 // addps 0x10cd4(%rip),%xmm1 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,204,6,1,0 // movaps 0x106cc(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40176,7 +40666,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,148,6,1,0 // addps 0x10694(%rip),%xmm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,151,6,1,0 // addps 0x10697(%rip),%xmm1 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40188,13 +40678,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,148,12,1,0 // addps 0x10c94(%rip),%xmm0 # 399c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,40,13,124,6,1,0 // movaps 0x1067c(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,5,151,12,1,0 // addps 0x10c97(%rip),%xmm0 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,40,13,127,6,1,0 // movaps 0x1067f(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,136,12,1,0 // mulps 0x10c88(%rip),%xmm9 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,13,96,8,1,0 // addps 0x10860(%rip),%xmm9 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,13,139,12,1,0 // mulps 0x10c8b(%rip),%xmm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,13,99,8,1,0 // addps 0x10863(%rip),%xmm9 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40207,16 +40697,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,60,12,1,0 // addps 0x10c3c(%rip),%xmm0 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,52,6,1,0 // movaps 0x10634(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,5,63,12,1,0 // addps 0x10c3f(%rip),%xmm0 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,55,6,1,0 // movaps 0x10637(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,88,12,1,0 // movaps 0x10c58(%rip),%xmm8 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,5,91,12,1,0 // movaps 0x10c5b(%rip),%xmm8 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,92,12,1,0 // addps 0x10c5c(%rip),%xmm8 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,95,12,1,0 // addps 0x10c5f(%rip),%xmm8 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,0,6,1,0 // addps 0x10600(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,5,3,6,1,0 // addps 0x10603(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,84,12,1,0 // addps 0x10c54(%rip),%xmm8 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,5,87,12,1,0 // addps 0x10c57(%rip),%xmm8 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40226,17 +40716,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,222,5,1,0 // movaps 0x105de(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,225,5,1,0 // movaps 0x105e1(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,7,12,1,0 // movaps 0x10c07(%rip),%xmm10 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,21,10,12,1,0 // movaps 0x10c0a(%rip),%xmm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,11,12,1,0 // addps 0x10c0b(%rip),%xmm10 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,14,12,1,0 // addps 0x10c0e(%rip),%xmm10 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,7,12,1,0 // addps 0x10c07(%rip),%xmm10 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,21,10,12,1,0 // addps 0x10c0a(%rip),%xmm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40248,11 +40738,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,215,11,1,0 // addps 0x10bd7(%rip),%xmm0 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 15,88,5,218,11,1,0 // addps 0x10bda(%rip),%xmm0 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,167,11,1,0 // mulps 0x10ba7(%rip),%xmm8 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,5,127,7,1,0 // addps 0x1077f(%rip),%xmm8 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,170,11,1,0 // mulps 0x10baa(%rip),%xmm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,5,130,7,1,0 // addps 0x10782(%rip),%xmm8 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40265,13 +40755,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,106,11,1,0 // addps 0x10b6a(%rip),%xmm1 # 399c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,40,13,82,5,1,0 // movaps 0x10552(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,13,109,11,1,0 // addps 0x10b6d(%rip),%xmm1 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,40,13,85,5,1,0 // movaps 0x10555(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,94,11,1,0 // mulps 0x10b5e(%rip),%xmm9 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,13,54,7,1,0 // addps 0x10736(%rip),%xmm9 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,13,97,11,1,0 // mulps 0x10b61(%rip),%xmm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,13,57,7,1,0 // addps 0x10739(%rip),%xmm9 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40284,16 +40774,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,17,11,1,0 // addps 0x10b11(%rip),%xmm1 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,9,5,1,0 // movaps 0x10509(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,88,13,20,11,1,0 // addps 0x10b14(%rip),%xmm1 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,12,5,1,0 // movaps 0x1050c(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,45,11,1,0 // movaps 0x10b2d(%rip),%xmm8 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,5,48,11,1,0 // movaps 0x10b30(%rip),%xmm8 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,49,11,1,0 // addps 0x10b31(%rip),%xmm8 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,52,11,1,0 // addps 0x10b34(%rip),%xmm8 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,213,4,1,0 // addps 0x104d5(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,88,5,216,4,1,0 // addps 0x104d8(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,41,11,1,0 // addps 0x10b29(%rip),%xmm8 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,5,44,11,1,0 // addps 0x10b2c(%rip),%xmm8 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40303,17 +40793,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,179,4,1,0 // movaps 0x104b3(%rip),%xmm8 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,182,4,1,0 // movaps 0x104b6(%rip),%xmm8 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,219,10,1,0 // movaps 0x10adb(%rip),%xmm10 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,40,21,222,10,1,0 // movaps 0x10ade(%rip),%xmm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,223,10,1,0 // addps 0x10adf(%rip),%xmm10 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,226,10,1,0 // addps 0x10ae2(%rip),%xmm10 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,219,10,1,0 // addps 0x10adb(%rip),%xmm10 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 68,15,88,21,222,10,1,0 // addps 0x10ade(%rip),%xmm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40325,11 +40815,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,170,10,1,0 // addps 0x10aaa(%rip),%xmm1 # 399f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 15,88,13,173,10,1,0 // addps 0x10aad(%rip),%xmm1 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,122,10,1,0 // mulps 0x10a7a(%rip),%xmm8 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- .byte 68,15,88,5,82,6,1,0 // addps 0x10652(%rip),%xmm8 # 395b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,125,10,1,0 // mulps 0x10a7d(%rip),%xmm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,88,5,85,6,1,0 // addps 0x10655(%rip),%xmm8 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40474,7 +40964,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,193,8,1,0 // movdqa 0x108c1(%rip),%xmm8 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,68,15,111,5,196,8,1,0 // movdqa 0x108c4(%rip),%xmm8 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -40513,7 +41003,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,200,1,1,0 // movdqa 0x101c8(%rip),%xmm12 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,37,203,1,1,0 // movdqa 0x101cb(%rip),%xmm12 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -40529,7 +41019,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,173,7,1,0 // movaps 0x107ad(%rip),%xmm4 # 39a10 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 15,40,37,176,7,1,0 // movaps 0x107b0(%rip),%xmm4 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -40565,7 +41055,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,34,7,1,0 // psubd 0x10722(%rip),%xmm1 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,13,37,7,1,0 // psubd 0x10725(%rip),%xmm1 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -40655,7 +41145,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,58,255,0,0 // movdqa 0xff3a(%rip),%xmm13 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,45,61,255,0,0 // movdqa 0xff3d(%rip),%xmm13 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -40752,7 +41242,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,189,3,1,0 // movdqa 0x103bd(%rip),%xmm3 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,29,192,3,1,0 // movdqa 0x103c0(%rip),%xmm3 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -40790,7 +41280,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,205,252,0,0 // movdqa 0xfccd(%rip),%xmm0 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,111,5,208,252,0,0 // movdqa 0xfcd0(%rip),%xmm0 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -40871,7 +41361,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,154,1,1,0 // movdqa 0x1019a(%rip),%xmm1 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,13,157,1,1,0 // movdqa 0x1019d(%rip),%xmm1 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -40893,7 +41383,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,63,1,1,0 // psubd 0x1013f(%rip),%xmm1 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,13,66,1,1,0 // psubd 0x10142(%rip),%xmm1 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -40908,7 +41398,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,170,250,0,0 // paddd 0xfaaa(%rip),%xmm0 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,5,173,250,0,0 // paddd 0xfaad(%rip),%xmm0 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -40945,7 +41435,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,73,0,1,0 // psubd 0x10049(%rip),%xmm1 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,13,76,0,1,0 // psubd 0x1004c(%rip),%xmm1 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -40960,7 +41450,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,180,249,0,0 // paddd 0xf9b4(%rip),%xmm2 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,21,183,249,0,0 // paddd 0xf9b7(%rip),%xmm2 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -41106,7 +41596,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,140,253,0,0 // movdqa 0xfd8c(%rip),%xmm4 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,37,143,253,0,0 // movdqa 0xfd8f(%rip),%xmm4 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -41145,7 +41635,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,150,246,0,0 // paddd 0xf696(%rip),%xmm0 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,5,153,246,0,0 // paddd 0xf699(%rip),%xmm0 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -41160,7 +41650,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,128,252,0,0 // movaps 0xfc80(%rip),%xmm6 # 39a10 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 15,40,53,131,252,0,0 // movaps 0xfc83(%rip),%xmm6 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -41178,7 +41668,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,54,252,0,0 // movdqa 0xfc36(%rip),%xmm1 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,13,57,252,0,0 // movdqa 0xfc39(%rip),%xmm1 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -41199,7 +41689,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,225,251,0,0 // psubd 0xfbe1(%rip),%xmm0 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,5,228,251,0,0 // psubd 0xfbe4(%rip),%xmm0 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -41214,7 +41704,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,73,245,0,0 // paddd 0xf549(%rip),%xmm1 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,13,76,245,0,0 // paddd 0xf54c(%rip),%xmm1 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -41252,7 +41742,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,224,250,0,0 // movdqa 0xfae0(%rip),%xmm4 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,37,227,250,0,0 // movdqa 0xfae3(%rip),%xmm4 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -41290,7 +41780,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,236,243,0,0 // movdqa 0xf3ec(%rip),%xmm8 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,5,239,243,0,0 // movdqa 0xf3ef(%rip),%xmm8 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -41436,7 +41926,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,70,241,0,0 // movdqa 0xf146(%rip),%xmm15 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,61,73,241,0,0 // movdqa 0xf149(%rip),%xmm15 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -41519,7 +42009,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,21,246,0,0 // movdqa 0xf615(%rip),%xmm5 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,45,24,246,0,0 // movdqa 0xf618(%rip),%xmm5 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -41540,7 +42030,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,190,245,0,0 // psubd 0xf5be(%rip),%xmm5 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,45,193,245,0,0 // psubd 0xf5c1(%rip),%xmm5 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -41572,7 +42062,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,28,245,0,0 // movdqa 0xf51c(%rip),%xmm3 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,29,31,245,0,0 // movdqa 0xf51f(%rip),%xmm3 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -41593,7 +42083,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,188,244,0,0 // psubd 0xf4bc(%rip),%xmm5 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,45,191,244,0,0 // psubd 0xf4bf(%rip),%xmm5 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -41608,7 +42098,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,38,238,0,0 // movdqa 0xee26(%rip),%xmm9 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,13,41,238,0,0 // movdqa 0xee29(%rip),%xmm9 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -41670,7 +42160,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,87,243,0,0 // movdqa 0xf357(%rip),%xmm2 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,21,90,243,0,0 // movdqa 0xf35a(%rip),%xmm2 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -41863,7 +42353,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,243,239,0,0 // psubd 0xeff3(%rip),%xmm2 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,21,246,239,0,0 // psubd 0xeff6(%rip),%xmm2 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -41923,7 +42413,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,210,238,0,0 // movdqa 0xeed2(%rip),%xmm8 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,68,15,111,5,213,238,0,0 // movdqa 0xeed5(%rip),%xmm8 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -41961,7 +42451,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,224,231,0,0 // movdqa 0xe7e0(%rip),%xmm8 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,68,15,111,5,227,231,0,0 // movdqa 0xe7e3(%rip),%xmm8 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -42044,7 +42534,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,172,236,0,0 // movdqa 0xecac(%rip),%xmm4 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,111,37,175,236,0,0 // movdqa 0xecaf(%rip),%xmm4 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -42065,7 +42555,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,85,236,0,0 // psubd 0xec55(%rip),%xmm1 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,13,88,236,0,0 // psubd 0xec58(%rip),%xmm1 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42080,7 +42570,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,190,229,0,0 // paddd 0xe5be(%rip),%xmm0 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,5,193,229,0,0 // paddd 0xe5c1(%rip),%xmm0 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42118,7 +42608,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,93,235,0,0 // psubd 0xeb5d(%rip),%xmm1 # 39a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 102,15,250,13,96,235,0,0 // psubd 0xeb60(%rip),%xmm1 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42133,7 +42623,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,200,228,0,0 // paddd 0xe4c8(%rip),%xmm2 # 393e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 102,15,254,21,203,228,0,0 // paddd 0xe4cb(%rip),%xmm2 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42192,7 +42682,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,180,227,0,0 // movaps 0xe3b4(%rip),%xmm3 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,29,183,227,0,0 // movaps 0xe3b7(%rip),%xmm3 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -42205,20 +42695,23 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,25,234,0,0 // movaps 0xea19(%rip),%xmm0 # 39a40 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
+ .byte 15,40,5,28,234,0,0 // movaps 0xea1c(%rip),%xmm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,31,234,0,0 // addps 0xea1f(%rip),%xmm0 # 39a50 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
+ .byte 15,88,5,34,234,0,0 // addps 0xea22(%rip),%xmm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,37,234,0,0 // addps 0xea25(%rip),%xmm0 # 39a60 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
+ .byte 15,88,5,40,234,0,0 // addps 0xea28(%rip),%xmm0 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,43,234,0,0 // addps 0xea2b(%rip),%xmm0 # 39a70 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
+ .byte 15,88,5,46,234,0,0 // addps 0xea2e(%rip),%xmm0 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,49,234,0,0 // addps 0xea31(%rip),%xmm0 # 39a80 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
+ .byte 15,88,5,52,234,0,0 // addps 0xea34(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 255,224 // jmpq *%rax
+ .byte 144 // nop
+ .byte 144 // nop
+ .byte 144 // nop
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
@@ -42241,13 +42734,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2b126 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2b9e6 <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2b0e8 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2b9a8 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -42266,10 +42759,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2b0a9 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2b969 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2b119 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2b9d9 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -42283,7 +42776,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2b09b <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2b95b <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -42313,7 +42806,7 @@ _sk_seed_shader_hsw_lowp:
.byte 197,249,110,209 // vmovd %ecx,%xmm2
.byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,218 // vmovaps %ymm2,%ymm3
@@ -42429,7 +42922,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,244,221,0,0 // vpbroadcastw 0xddf4(%rip),%ymm3 # 390e0 <_sk_srcover_bgra_8888_sse2_lowp+0x928>
+ .byte 196,226,125,121,29,244,221,0,0 // vpbroadcastw 0xddf4(%rip),%ymm3 # 399a0 <_sk_srcover_bgra_8888_sse2_lowp+0x928>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -42440,7 +42933,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,221,221,0,0 // vpbroadcastw 0xdddd(%rip),%ymm0 # 390e2 <_sk_srcover_bgra_8888_sse2_lowp+0x92a>
+ .byte 196,226,125,121,5,221,221,0,0 // vpbroadcastw 0xdddd(%rip),%ymm0 # 399a2 <_sk_srcover_bgra_8888_sse2_lowp+0x92a>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -42451,8 +42944,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -42495,7 +42988,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,70,221,0,0 // vpbroadcastw 0xdd46(%rip),%ymm8 # 390e4 <_sk_srcover_bgra_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,121,5,70,221,0,0 // vpbroadcastw 0xdd46(%rip),%ymm8 # 399a4 <_sk_srcover_bgra_8888_sse2_lowp+0x92c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -42512,7 +43005,7 @@ HIDDEN _sk_premul_dst_hsw_lowp
FUNCTION(_sk_premul_dst_hsw_lowp)
_sk_premul_dst_hsw_lowp:
.byte 197,197,213,228 // vpmullw %ymm4,%ymm7,%ymm4
- .byte 196,98,125,121,5,17,221,0,0 // vpbroadcastw 0xdd11(%rip),%ymm8 # 390e6 <_sk_srcover_bgra_8888_sse2_lowp+0x92e>
+ .byte 196,98,125,121,5,17,221,0,0 // vpbroadcastw 0xdd11(%rip),%ymm8 # 399a6 <_sk_srcover_bgra_8888_sse2_lowp+0x92e>
.byte 196,193,93,253,224 // vpaddw %ymm8,%ymm4,%ymm4
.byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
.byte 197,197,213,237 // vpmullw %ymm5,%ymm7,%ymm5
@@ -42560,7 +43053,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,168,220,0,0 // vpbroadcastw 0xdca8(%rip),%ymm8 # 390e8 <_sk_srcover_bgra_8888_sse2_lowp+0x930>
+ .byte 196,98,125,121,5,168,220,0,0 // vpbroadcastw 0xdca8(%rip),%ymm8 # 399a8 <_sk_srcover_bgra_8888_sse2_lowp+0x930>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -42584,7 +43077,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,117,220,0,0 // vpbroadcastw 0xdc75(%rip),%ymm8 # 390ea <_sk_srcover_bgra_8888_sse2_lowp+0x932>
+ .byte 196,98,125,121,5,117,220,0,0 // vpbroadcastw 0xdc75(%rip),%ymm8 # 399aa <_sk_srcover_bgra_8888_sse2_lowp+0x932>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -42611,7 +43104,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,21,220,0,0 // vpbroadcastw 0xdc15(%rip),%ymm9 # 390ec <_sk_srcover_bgra_8888_sse2_lowp+0x934>
+ .byte 196,98,125,121,13,21,220,0,0 // vpbroadcastw 0xdc15(%rip),%ymm9 # 399ac <_sk_srcover_bgra_8888_sse2_lowp+0x934>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -42638,7 +43131,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,178,219,0,0 // vpbroadcastw 0xdbb2(%rip),%ymm8 # 390ee <_sk_srcover_bgra_8888_sse2_lowp+0x936>
+ .byte 196,98,125,121,5,178,219,0,0 // vpbroadcastw 0xdbb2(%rip),%ymm8 # 399ae <_sk_srcover_bgra_8888_sse2_lowp+0x936>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -42658,7 +43151,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,111,219,0,0 // vpbroadcastw 0xdb6f(%rip),%ymm8 # 390f0 <_sk_srcover_bgra_8888_sse2_lowp+0x938>
+ .byte 196,98,125,121,5,111,219,0,0 // vpbroadcastw 0xdb6f(%rip),%ymm8 # 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x938>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -42677,7 +43170,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,48,219,0,0 // vpbroadcastw 0xdb30(%rip),%ymm8 # 390f2 <_sk_srcover_bgra_8888_sse2_lowp+0x93a>
+ .byte 196,98,125,121,5,48,219,0,0 // vpbroadcastw 0xdb30(%rip),%ymm8 # 399b2 <_sk_srcover_bgra_8888_sse2_lowp+0x93a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -42698,7 +43191,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,233,218,0,0 // vpbroadcastw 0xdae9(%rip),%ymm8 # 390f4 <_sk_srcover_bgra_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,121,5,233,218,0,0 // vpbroadcastw 0xdae9(%rip),%ymm8 # 399b4 <_sk_srcover_bgra_8888_sse2_lowp+0x93c>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -42719,7 +43212,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,162,218,0,0 // vpbroadcastw 0xdaa2(%rip),%ymm8 # 390f6 <_sk_srcover_bgra_8888_sse2_lowp+0x93e>
+ .byte 196,98,125,121,5,162,218,0,0 // vpbroadcastw 0xdaa2(%rip),%ymm8 # 399b6 <_sk_srcover_bgra_8888_sse2_lowp+0x93e>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -42744,7 +43237,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,71,218,0,0 // vpbroadcastw 0xda47(%rip),%ymm8 # 390f8 <_sk_srcover_bgra_8888_sse2_lowp+0x940>
+ .byte 196,98,125,121,5,71,218,0,0 // vpbroadcastw 0xda47(%rip),%ymm8 # 399b8 <_sk_srcover_bgra_8888_sse2_lowp+0x940>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -42770,7 +43263,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,236,217,0,0 // vpbroadcastw 0xd9ec(%rip),%ymm8 # 390fa <_sk_srcover_bgra_8888_sse2_lowp+0x942>
+ .byte 196,98,125,121,5,236,217,0,0 // vpbroadcastw 0xd9ec(%rip),%ymm8 # 399ba <_sk_srcover_bgra_8888_sse2_lowp+0x942>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -42789,7 +43282,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,173,217,0,0 // vpbroadcastw 0xd9ad(%rip),%ymm8 # 390fc <_sk_srcover_bgra_8888_sse2_lowp+0x944>
+ .byte 196,98,125,121,5,173,217,0,0 // vpbroadcastw 0xd9ad(%rip),%ymm8 # 399bc <_sk_srcover_bgra_8888_sse2_lowp+0x944>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -42825,7 +43318,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,35,217,0,0 // vpbroadcastw 0xd923(%rip),%ymm8 # 390fe <_sk_srcover_bgra_8888_sse2_lowp+0x946>
+ .byte 196,98,125,121,5,35,217,0,0 // vpbroadcastw 0xd923(%rip),%ymm8 # 399be <_sk_srcover_bgra_8888_sse2_lowp+0x946>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -42842,7 +43335,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,240,216,0,0 // vpbroadcastw 0xd8f0(%rip),%ymm9 # 39100 <_sk_srcover_bgra_8888_sse2_lowp+0x948>
+ .byte 196,98,125,121,13,240,216,0,0 // vpbroadcastw 0xd8f0(%rip),%ymm9 # 399c0 <_sk_srcover_bgra_8888_sse2_lowp+0x948>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -42868,7 +43361,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,149,216,0,0 // vpbroadcastw 0xd895(%rip),%ymm8 # 39102 <_sk_srcover_bgra_8888_sse2_lowp+0x94a>
+ .byte 196,98,125,121,5,149,216,0,0 // vpbroadcastw 0xd895(%rip),%ymm8 # 399c2 <_sk_srcover_bgra_8888_sse2_lowp+0x94a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -42902,7 +43395,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,25,216,0,0 // vpbroadcastw 0xd819(%rip),%ymm9 # 39104 <_sk_srcover_bgra_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,121,13,25,216,0,0 // vpbroadcastw 0xd819(%rip),%ymm9 # 399c4 <_sk_srcover_bgra_8888_sse2_lowp+0x94c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -42936,7 +43429,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,154,215,0,0 // vpbroadcastw 0xd79a(%rip),%ymm9 # 39106 <_sk_srcover_bgra_8888_sse2_lowp+0x94e>
+ .byte 196,98,125,121,13,154,215,0,0 // vpbroadcastw 0xd79a(%rip),%ymm9 # 399c6 <_sk_srcover_bgra_8888_sse2_lowp+0x94e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -42970,10 +43463,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,27,215,0,0 // vpbroadcastw 0xd71b(%rip),%ymm9 # 39108 <_sk_srcover_bgra_8888_sse2_lowp+0x950>
+ .byte 196,98,125,121,13,27,215,0,0 // vpbroadcastw 0xd71b(%rip),%ymm9 # 399c8 <_sk_srcover_bgra_8888_sse2_lowp+0x950>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,10,215,0,0 // vpbroadcastw 0xd70a(%rip),%ymm10 # 3910a <_sk_srcover_bgra_8888_sse2_lowp+0x952>
+ .byte 196,98,125,121,21,10,215,0,0 // vpbroadcastw 0xd70a(%rip),%ymm10 # 399ca <_sk_srcover_bgra_8888_sse2_lowp+0x952>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -43006,10 +43499,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,143,214,0,0 // vpbroadcastw 0xd68f(%rip),%ymm9 # 3910c <_sk_srcover_bgra_8888_sse2_lowp+0x954>
+ .byte 196,98,125,121,13,143,214,0,0 // vpbroadcastw 0xd68f(%rip),%ymm9 # 399cc <_sk_srcover_bgra_8888_sse2_lowp+0x954>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,126,214,0,0 // vpbroadcastw 0xd67e(%rip),%ymm10 # 3910e <_sk_srcover_bgra_8888_sse2_lowp+0x956>
+ .byte 196,98,125,121,21,126,214,0,0 // vpbroadcastw 0xd67e(%rip),%ymm10 # 399ce <_sk_srcover_bgra_8888_sse2_lowp+0x956>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -43037,7 +43530,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,27,214,0,0 // vpbroadcastw 0xd61b(%rip),%ymm9 # 39112 <_sk_srcover_bgra_8888_sse2_lowp+0x95a>
+ .byte 196,98,125,121,13,27,214,0,0 // vpbroadcastw 0xd61b(%rip),%ymm9 # 399d2 <_sk_srcover_bgra_8888_sse2_lowp+0x95a>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -43065,7 +43558,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,146,213,0,0 // vpbroadcastw 0xd592(%rip),%ymm14 # 39110 <_sk_srcover_bgra_8888_sse2_lowp+0x958>
+ .byte 196,98,125,121,53,146,213,0,0 // vpbroadcastw 0xd592(%rip),%ymm14 # 399d0 <_sk_srcover_bgra_8888_sse2_lowp+0x958>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -43102,7 +43595,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,7,213,0,0 // vpbroadcastw 0xd507(%rip),%ymm9 # 39116 <_sk_srcover_bgra_8888_sse2_lowp+0x95e>
+ .byte 196,98,125,121,13,7,213,0,0 // vpbroadcastw 0xd507(%rip),%ymm9 # 399d6 <_sk_srcover_bgra_8888_sse2_lowp+0x95e>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -43126,7 +43619,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,143,212,0,0 // vpbroadcastw 0xd48f(%rip),%ymm13 # 39114 <_sk_srcover_bgra_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,121,45,143,212,0,0 // vpbroadcastw 0xd48f(%rip),%ymm13 # 399d4 <_sk_srcover_bgra_8888_sse2_lowp+0x95c>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -43178,10 +43671,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2bd7b <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2c63b <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2bef4 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2c7b4 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43191,10 +43684,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2bea2 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2c762 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2bea2 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2c762 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -43203,7 +43696,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2bea2 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2c762 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43219,7 +43712,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2bea2 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2c762 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43229,7 +43722,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2bea2 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2c762 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43249,7 +43742,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,85,210,0,0 // vmovdqa 0xd255(%rip),%ymm8 # 39120 <_sk_srcover_bgra_8888_sse2_lowp+0x968>
+ .byte 197,125,111,5,85,210,0,0 // vmovdqa 0xd255(%rip),%ymm8 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x968>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -43260,7 +43753,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 120,254 // js 2bef4 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 120,254 // js 2c7b4 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 255 // (bad)
.byte 255,175,254,255,255,153 // ljmp *-0x66000002(%rdi)
.byte 254 // (bad)
@@ -43308,10 +43801,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2bf82 <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2c842 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2c0fc <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2c9bc <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43321,10 +43814,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2c0a9 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2c969 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2c0a9 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2c969 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -43333,7 +43826,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2c0a9 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2c969 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43349,7 +43842,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2c0a9 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2c969 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43359,7 +43852,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2c0a9 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2c969 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43379,7 +43872,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,110,208,0,0 // vmovdqa 0xd06e(%rip),%ymm8 # 39140 <_sk_srcover_bgra_8888_sse2_lowp+0x988>
+ .byte 197,125,111,5,110,208,0,0 // vmovdqa 0xd06e(%rip),%ymm8 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x988>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -43390,7 +43883,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2c0fc <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2c9bc <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -43451,20 +43944,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2c1b9 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2ca79 <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c268 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2cb28 <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2c264 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2cb24 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2c264 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2cb24 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2c264 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2cb24 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -43472,12 +43965,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2c264 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2cb24 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2c264 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2cb24 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -43534,10 +44027,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2c2f6 <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2cbb6 <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2c470 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2cd30 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43547,10 +44040,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2c41d <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2ccdd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2c41d <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2ccdd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -43559,7 +44052,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2c41d <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2ccdd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43575,7 +44068,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2c41d <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2ccdd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43585,7 +44078,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2c41d <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2ccdd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43605,7 +44098,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,26,205,0,0 // vmovdqa 0xcd1a(%rip),%ymm8 # 39160 <_sk_srcover_bgra_8888_sse2_lowp+0x9a8>
+ .byte 197,125,111,5,26,205,0,0 // vmovdqa 0xcd1a(%rip),%ymm8 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x9a8>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -43616,7 +44109,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2c470 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2cd30 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -43663,10 +44156,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2c4fe <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2cdbe <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2c678 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2cf38 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43676,10 +44169,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2c625 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2cee5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2c625 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2cee5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -43688,7 +44181,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2c625 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2cee5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43704,7 +44197,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2c625 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2cee5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43714,7 +44207,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2c625 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2cee5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -43734,7 +44227,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,50,203,0,0 // vmovdqa 0xcb32(%rip),%ymm8 # 39180 <_sk_srcover_bgra_8888_sse2_lowp+0x9c8>
+ .byte 197,125,111,5,50,203,0,0 // vmovdqa 0xcb32(%rip),%ymm8 # 39a40 <_sk_srcover_bgra_8888_sse2_lowp+0x9c8>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -43745,7 +44238,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2c678 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2cf38 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -43806,20 +44299,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2c735 <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2cff5 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c7e4 <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d0a4 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2c7e0 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2d0a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2c7e0 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2d0a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2c7e0 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2d0a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -43827,12 +44320,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2c7e0 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2d0a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2c7e0 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2d0a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -43915,7 +44408,7 @@ _sk_gather_8888_hsw_lowp:
.byte 196,195,101,14,194,170 // vpblendw $0xaa,%ymm10,%ymm3,%ymm0
.byte 196,195,109,14,202,170 // vpblendw $0xaa,%ymm10,%ymm2,%ymm1
.byte 196,226,117,43,200 // vpackusdw %ymm0,%ymm1,%ymm1
- .byte 197,125,111,5,206,200,0,0 // vmovdqa 0xc8ce(%rip),%ymm8 # 391a0 <_sk_srcover_bgra_8888_sse2_lowp+0x9e8>
+ .byte 197,125,111,5,206,200,0,0 // vmovdqa 0xc8ce(%rip),%ymm8 # 39a60 <_sk_srcover_bgra_8888_sse2_lowp+0x9e8>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -43965,7 +44458,7 @@ _sk_gather_bgra_hsw_lowp:
.byte 196,195,125,14,202,170 // vpblendw $0xaa,%ymm10,%ymm0,%ymm1
.byte 196,195,61,14,210,170 // vpblendw $0xaa,%ymm10,%ymm8,%ymm2
.byte 196,226,109,43,201 // vpackusdw %ymm1,%ymm2,%ymm1
- .byte 197,253,111,29,21,200,0,0 // vmovdqa 0xc815(%rip),%ymm3 # 391c0 <_sk_srcover_bgra_8888_sse2_lowp+0xa08>
+ .byte 197,253,111,29,21,200,0,0 // vmovdqa 0xc815(%rip),%ymm3 # 39a80 <_sk_srcover_bgra_8888_sse2_lowp+0xa08>
.byte 197,245,219,211 // vpand %ymm3,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -43989,24 +44482,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2ca11 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2d2d1 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2cb7c <_sk_load_565_hsw_lowp+0x1aa>
+ .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2d43c <_sk_load_565_hsw_lowp+0x1aa>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2cb19 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2d3d9 <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2cb19 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2d3d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2cb19 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2d3d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -44016,7 +44509,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2cb19 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2d3d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -44028,7 +44521,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2cb19 <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2d3d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -44042,13 +44535,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,190,198,0,0 // vpbroadcastw 0xc6be(%rip),%ymm1 # 391e0 <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
+ .byte 196,226,125,121,13,190,198,0,0 // vpbroadcastw 0xc6be(%rip),%ymm1 # 39aa0 <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,169,198,0,0 // vpbroadcastw 0xc6a9(%rip),%ymm3 # 391e2 <_sk_srcover_bgra_8888_sse2_lowp+0xa2a>
+ .byte 196,226,125,121,29,169,198,0,0 // vpbroadcastw 0xc6a9(%rip),%ymm3 # 39aa2 <_sk_srcover_bgra_8888_sse2_lowp+0xa2a>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,158,198,0,0 // vpbroadcastw 0xc69e(%rip),%ymm3 # 391e4 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c>
+ .byte 196,226,125,121,29,158,198,0,0 // vpbroadcastw 0xc69e(%rip),%ymm3 # 39aa4 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -44059,7 +44552,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,108,198,0,0 // vpbroadcastw 0xc66c(%rip),%ymm3 # 391e6 <_sk_srcover_bgra_8888_sse2_lowp+0xa2e>
+ .byte 196,226,125,121,29,108,198,0,0 // vpbroadcastw 0xc66c(%rip),%ymm3 # 39aa6 <_sk_srcover_bgra_8888_sse2_lowp+0xa2e>
.byte 255,224 // jmpq *%rax
.byte 135,254 // xchg %edi,%esi
.byte 255 // (bad)
@@ -44109,24 +44602,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2cbf7 <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2d4b7 <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2cd64 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2d624 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2ccff <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2d5bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2ccff <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2d5bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2ccff <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2d5bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -44136,7 +44629,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2ccff <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2d5bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44148,7 +44641,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2ccff <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2d5bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44162,13 +44655,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,224,196,0,0 // vpbroadcastw 0xc4e0(%rip),%ymm5 # 391e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa30>
+ .byte 196,226,125,121,45,224,196,0,0 // vpbroadcastw 0xc4e0(%rip),%ymm5 # 39aa8 <_sk_srcover_bgra_8888_sse2_lowp+0xa30>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,203,196,0,0 // vpbroadcastw 0xc4cb(%rip),%ymm7 # 391ea <_sk_srcover_bgra_8888_sse2_lowp+0xa32>
+ .byte 196,226,125,121,61,203,196,0,0 // vpbroadcastw 0xc4cb(%rip),%ymm7 # 39aaa <_sk_srcover_bgra_8888_sse2_lowp+0xa32>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,192,196,0,0 // vpbroadcastw 0xc4c0(%rip),%ymm7 # 391ec <_sk_srcover_bgra_8888_sse2_lowp+0xa34>
+ .byte 196,226,125,121,61,192,196,0,0 // vpbroadcastw 0xc4c0(%rip),%ymm7 # 39aac <_sk_srcover_bgra_8888_sse2_lowp+0xa34>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -44179,7 +44672,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,142,196,0,0 // vpbroadcastw 0xc48e(%rip),%ymm7 # 391ee <_sk_srcover_bgra_8888_sse2_lowp+0xa36>
+ .byte 196,226,125,121,61,142,196,0,0 // vpbroadcastw 0xc48e(%rip),%ymm7 # 39aae <_sk_srcover_bgra_8888_sse2_lowp+0xa36>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -44230,10 +44723,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,55,196,0,0 // vpbroadcastw 0xc437(%rip),%ymm8 # 391f0 <_sk_srcover_bgra_8888_sse2_lowp+0xa38>
+ .byte 196,98,125,121,5,55,196,0,0 // vpbroadcastw 0xc437(%rip),%ymm8 # 39ab0 <_sk_srcover_bgra_8888_sse2_lowp+0xa38>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,38,196,0,0 // vpbroadcastw 0xc426(%rip),%ymm9 # 391f2 <_sk_srcover_bgra_8888_sse2_lowp+0xa3a>
+ .byte 196,98,125,121,13,38,196,0,0 // vpbroadcastw 0xc426(%rip),%ymm9 # 39ab2 <_sk_srcover_bgra_8888_sse2_lowp+0xa3a>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -44243,31 +44736,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2ce0e <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2d6ce <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2cebc <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d77c <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2ceb5 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2d775 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2ceb5 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2d775 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2ceb5 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2d775 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2ceb5 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2d775 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2ceaf <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2d76f <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44290,7 +44783,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2ced1 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2d791 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -44402,13 +44895,13 @@ _sk_gather_565_hsw_lowp:
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,226,125,121,13,106,193,0,0 // vpbroadcastw 0xc16a(%rip),%ymm1 # 391f4 <_sk_srcover_bgra_8888_sse2_lowp+0xa3c>
+ .byte 196,226,125,121,13,106,193,0,0 // vpbroadcastw 0xc16a(%rip),%ymm1 # 39ab4 <_sk_srcover_bgra_8888_sse2_lowp+0xa3c>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,85,193,0,0 // vpbroadcastw 0xc155(%rip),%ymm3 # 391f6 <_sk_srcover_bgra_8888_sse2_lowp+0xa3e>
+ .byte 196,226,125,121,29,85,193,0,0 // vpbroadcastw 0xc155(%rip),%ymm3 # 39ab6 <_sk_srcover_bgra_8888_sse2_lowp+0xa3e>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,74,193,0,0 // vpbroadcastw 0xc14a(%rip),%ymm3 # 391f8 <_sk_srcover_bgra_8888_sse2_lowp+0xa40>
+ .byte 196,226,125,121,29,74,193,0,0 // vpbroadcastw 0xc14a(%rip),%ymm3 # 39ab8 <_sk_srcover_bgra_8888_sse2_lowp+0xa40>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -44419,7 +44912,7 @@ _sk_gather_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,24,193,0,0 // vpbroadcastw 0xc118(%rip),%ymm3 # 391fa <_sk_srcover_bgra_8888_sse2_lowp+0xa42>
+ .byte 196,226,125,121,29,24,193,0,0 // vpbroadcastw 0xc118(%rip),%ymm3 # 39aba <_sk_srcover_bgra_8888_sse2_lowp+0xa42>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_4444_hsw_lowp
@@ -44435,24 +44928,24 @@ _sk_load_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2d123 <_sk_load_4444_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2d9e3 <_sk_load_4444_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2d27c <_sk_load_4444_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2db3c <_sk_load_4444_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2d22b <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2daeb <_sk_load_4444_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2d22b <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2daeb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2d22b <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2daeb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -44462,7 +44955,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2d22b <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2daeb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -44474,7 +44967,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2d22b <_sk_load_4444_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2daeb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -44490,7 +44983,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,190,191,0,0 // vpbroadcastw 0xbfbe(%rip),%ymm3 # 391fc <_sk_srcover_bgra_8888_sse2_lowp+0xa44>
+ .byte 196,226,125,121,29,190,191,0,0 // vpbroadcastw 0xbfbe(%rip),%ymm3 # 39abc <_sk_srcover_bgra_8888_sse2_lowp+0xa44>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -44555,24 +45048,24 @@ _sk_load_4444_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2d2f7 <_sk_load_4444_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2dbb7 <_sk_load_4444_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2d450 <_sk_load_4444_dst_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2dd10 <_sk_load_4444_dst_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2d3ff <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2dcbf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2d3ff <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2dcbf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2d3ff <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2dcbf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -44582,7 +45075,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2d3ff <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2dcbf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44594,7 +45087,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2d3ff <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2dcbf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44610,7 +45103,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
.byte 197,213,113,212,12 // vpsrlw $0xc,%ymm4,%ymm5
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
- .byte 196,226,125,121,61,236,189,0,0 // vpbroadcastw 0xbdec(%rip),%ymm7 # 391fe <_sk_srcover_bgra_8888_sse2_lowp+0xa46>
+ .byte 196,226,125,121,61,236,189,0,0 // vpbroadcastw 0xbdec(%rip),%ymm7 # 39abe <_sk_srcover_bgra_8888_sse2_lowp+0xa46>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,189,113,212,4 // vpsrlw $0x4,%ymm4,%ymm8
.byte 197,61,219,199 // vpand %ymm7,%ymm8,%ymm8
@@ -44671,13 +45164,13 @@ _sk_store_4444_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,91,189,0,0 // vpbroadcastw 0xbd5b(%rip),%ymm8 # 39200 <_sk_srcover_bgra_8888_sse2_lowp+0xa48>
+ .byte 196,98,125,121,5,91,189,0,0 // vpbroadcastw 0xbd5b(%rip),%ymm8 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0xa48>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
.byte 197,181,113,241,4 // vpsllw $0x4,%ymm1,%ymm9
- .byte 197,53,219,13,100,189,0,0 // vpand 0xbd64(%rip),%ymm9,%ymm9 # 39220 <_sk_srcover_bgra_8888_sse2_lowp+0xa68>
+ .byte 197,53,219,13,100,189,0,0 // vpand 0xbd64(%rip),%ymm9,%ymm9 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0xa68>
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,118,189,0,0 // vpbroadcastw 0xbd76(%rip),%ymm9 # 39240 <_sk_srcover_bgra_8888_sse2_lowp+0xa88>
+ .byte 196,98,125,121,13,118,189,0,0 // vpbroadcastw 0xbd76(%rip),%ymm9 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0xa88>
.byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9
.byte 197,173,113,211,4 // vpsrlw $0x4,%ymm3,%ymm10
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
@@ -44686,31 +45179,31 @@ _sk_store_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2d507 <_sk_store_4444_hsw_lowp+0x7b>
+ .byte 119,31 // ja 2ddc7 <_sk_store_4444_hsw_lowp+0x7b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2d5b4 <_sk_store_4444_hsw_lowp+0x128>
+ .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2de74 <_sk_store_4444_hsw_lowp+0x128>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2d5ae <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,167,0,0,0 // jmpq 2de6e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2d5ae <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,156,0,0,0 // jmpq 2de6e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2d5ae <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,137,0,0,0 // jmpq 2de6e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2d5ae <_sk_store_4444_hsw_lowp+0x122>
+ .byte 235,105 // jmp 2de6e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2d5a8 <_sk_store_4444_hsw_lowp+0x11c>
+ .byte 235,55 // jmp 2de68 <_sk_store_4444_hsw_lowp+0x11c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44733,7 +45226,7 @@ _sk_store_4444_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2d5c9 <_sk_store_4444_hsw_lowp+0x13d>
+ .byte 121,255 // jns 2de89 <_sk_store_4444_hsw_lowp+0x13d>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -44848,7 +45341,7 @@ _sk_gather_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,182,186,0,0 // vpbroadcastw 0xbab6(%rip),%ymm3 # 39242 <_sk_srcover_bgra_8888_sse2_lowp+0xa8a>
+ .byte 196,226,125,121,29,182,186,0,0 // vpbroadcastw 0xbab6(%rip),%ymm3 # 39b02 <_sk_srcover_bgra_8888_sse2_lowp+0xa8a>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -44876,38 +45369,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2d803 <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2e0c3 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2d8c8 <_sk_load_a8_hsw_lowp+0x101>
+ .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2e188 <_sk_load_a8_hsw_lowp+0x101>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2d8b2 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2e172 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2d8b2 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2e172 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2d8b2 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2e172 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2d8b2 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2e172 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2d8b2 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2e172 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -44965,38 +45458,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2d940 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2e200 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2da04 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2e2c4 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2d9ef <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2e2af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2d9ef <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2e2af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2d9ef <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2e2af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2d9ef <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2e2af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2d9ef <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2e2af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -45053,7 +45546,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,69,192,0,0 // vmovdqa 0xc045(%rip),%xmm9 # 39aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
+ .byte 197,121,111,13,69,192,0,0 // vmovdqa 0xc045(%rip),%xmm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -45061,28 +45554,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2da90 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2e350 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2db10 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2e3d0 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2db09 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2e3c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2db09 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2e3c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2db09 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2e3c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2db09 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2e3c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2db03 <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2e3c3 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -45091,7 +45584,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2db11 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2e3d1 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -45232,38 +45725,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2dd2f <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2e5ef <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2ddf8 <_sk_load_g8_hsw_lowp+0x105>
+ .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2e6b8 <_sk_load_g8_hsw_lowp+0x105>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2ddde <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2e69e <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2ddde <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2e69e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2ddde <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2e69e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2ddde <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2e69e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2ddde <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2e69e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45273,7 +45766,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,86,180,0,0 // vpbroadcastw 0xb456(%rip),%ymm3 # 39244 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c>
+ .byte 196,226,125,121,29,86,180,0,0 // vpbroadcastw 0xb456(%rip),%ymm3 # 39b04 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -45284,7 +45777,7 @@ _sk_load_g8_hsw_lowp:
.byte 255,66,255 // incl -0x1(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2de05 <_sk_load_g8_hsw_lowp+0x112>
+ .byte 126,255 // jle 2e6c5 <_sk_load_g8_hsw_lowp+0x112>
.byte 255 // (bad)
.byte 255,118,255 // pushq -0x1(%rsi)
.byte 255 // (bad)
@@ -45324,38 +45817,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2de70 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2e730 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2df3c <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2e7fc <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2df1f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2e7df <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2df1f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2e7df <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2df1f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2e7df <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2df1f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2e7df <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2df1f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2e7df <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -45365,7 +45858,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,23,179,0,0 // vpbroadcastw 0xb317(%rip),%ymm7 # 39246 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e>
+ .byte 196,226,125,121,61,23,179,0,0 // vpbroadcastw 0xb317(%rip),%ymm7 # 39b06 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -45379,7 +45872,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2df49 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2e809 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -45409,12 +45902,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,199,178,0,0 // vpbroadcastw 0xb2c7(%rip),%ymm3 # 39248 <_sk_srcover_bgra_8888_sse2_lowp+0xa90>
+ .byte 196,226,125,121,29,199,178,0,0 // vpbroadcastw 0xb2c7(%rip),%ymm3 # 39b08 <_sk_srcover_bgra_8888_sse2_lowp+0xa90>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,188,178,0,0 // vpbroadcastw 0xb2bc(%rip),%ymm3 # 3924a <_sk_srcover_bgra_8888_sse2_lowp+0xa92>
+ .byte 196,226,125,121,29,188,178,0,0 // vpbroadcastw 0xb2bc(%rip),%ymm3 # 39b0a <_sk_srcover_bgra_8888_sse2_lowp+0xa92>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,173,178,0,0 // vpbroadcastw 0xb2ad(%rip),%ymm1 # 3924c <_sk_srcover_bgra_8888_sse2_lowp+0xa94>
+ .byte 196,226,125,121,13,173,178,0,0 // vpbroadcastw 0xb2ad(%rip),%ymm1 # 39b0c <_sk_srcover_bgra_8888_sse2_lowp+0xa94>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -45513,7 +46006,7 @@ _sk_gather_g8_hsw_lowp:
.byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,240,176,0,0 // vpbroadcastw 0xb0f0(%rip),%ymm3 # 3924e <_sk_srcover_bgra_8888_sse2_lowp+0xa96>
+ .byte 196,226,125,121,29,240,176,0,0 // vpbroadcastw 0xb0f0(%rip),%ymm3 # 39b0e <_sk_srcover_bgra_8888_sse2_lowp+0xa96>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -45524,13 +46017,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,182,176,0,0 // vpbroadcastw 0xb0b6(%rip),%ymm9 # 39250 <_sk_srcover_bgra_8888_sse2_lowp+0xa98>
+ .byte 196,98,125,121,13,182,176,0,0 // vpbroadcastw 0xb0b6(%rip),%ymm9 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0xa98>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -45551,12 +46044,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,82,176,0,0 // vpbroadcastw 0xb052(%rip),%ymm9 # 39252 <_sk_srcover_bgra_8888_sse2_lowp+0xa9a>
+ .byte 196,98,125,121,13,82,176,0,0 // vpbroadcastw 0xb052(%rip),%ymm9 # 39b12 <_sk_srcover_bgra_8888_sse2_lowp+0xa9a>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -45593,38 +46086,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2e29e <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2eb5e <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2e39c <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2ec5c <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2e351 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2ec11 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2e351 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2ec11 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2e351 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2ec11 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2e351 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2ec11 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2e351 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2ec11 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -45634,7 +46127,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,241,174,0,0 // vpbroadcastw 0xaef1(%rip),%ymm9 # 39254 <_sk_srcover_bgra_8888_sse2_lowp+0xa9c>
+ .byte 196,98,125,121,13,241,174,0,0 // vpbroadcastw 0xaef1(%rip),%ymm9 # 39b14 <_sk_srcover_bgra_8888_sse2_lowp+0xa9c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -45655,7 +46148,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02e3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02ec68 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -45694,38 +46187,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2e415 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2ecd5 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2e538 <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2edf8 <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2e4c8 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2ed88 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2e4c8 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2ed88 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2e4c8 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2ed88 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2e4c8 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2ed88 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2e4c8 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2ed88 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -45734,7 +46227,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,128,173,0,0 // vpbroadcastw 0xad80(%rip),%ymm9 # 39256 <_sk_srcover_bgra_8888_sse2_lowp+0xa9e>
+ .byte 196,98,125,121,13,128,173,0,0 // vpbroadcastw 0xad80(%rip),%ymm9 # 39b16 <_sk_srcover_bgra_8888_sse2_lowp+0xa9e>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -45766,7 +46259,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702e543 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
+ .byte 232,254,255,255,38 // callq 2702ee03 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -45787,7 +46280,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2e565 <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 2ee25 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -45808,24 +46301,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2e5b4 <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2ee74 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2e79c <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2f05c <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2e6c0 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2ef80 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2e6c0 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2ef80 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2e6c0 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2ef80 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -45835,7 +46328,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2e6c0 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2ef80 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -45847,7 +46340,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2e6c0 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2ef80 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -45861,13 +46354,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,143,171,0,0 // vpbroadcastw 0xab8f(%rip),%ymm9 # 39258 <_sk_srcover_bgra_8888_sse2_lowp+0xaa0>
+ .byte 196,98,125,121,13,143,171,0,0 // vpbroadcastw 0xab8f(%rip),%ymm9 # 39b18 <_sk_srcover_bgra_8888_sse2_lowp+0xaa0>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,119,171,0,0 // vpbroadcastw 0xab77(%rip),%ymm11 # 3925a <_sk_srcover_bgra_8888_sse2_lowp+0xaa2>
+ .byte 196,98,125,121,29,119,171,0,0 // vpbroadcastw 0xab77(%rip),%ymm11 # 39b1a <_sk_srcover_bgra_8888_sse2_lowp+0xaa2>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,107,171,0,0 // vpbroadcastw 0xab6b(%rip),%ymm11 # 3925c <_sk_srcover_bgra_8888_sse2_lowp+0xaa4>
+ .byte 196,98,125,121,29,107,171,0,0 // vpbroadcastw 0xab6b(%rip),%ymm11 # 39b1c <_sk_srcover_bgra_8888_sse2_lowp+0xaa4>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -45877,7 +46370,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,50,171,0,0 // vpbroadcastw 0xab32(%rip),%ymm11 # 3925e <_sk_srcover_bgra_8888_sse2_lowp+0xaa6>
+ .byte 196,98,125,121,29,50,171,0,0 // vpbroadcastw 0xab32(%rip),%ymm11 # 39b1e <_sk_srcover_bgra_8888_sse2_lowp+0xaa6>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -45887,7 +46380,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,254,170,0,0 // vpbroadcastw 0xaafe(%rip),%ymm8 # 39260 <_sk_srcover_bgra_8888_sse2_lowp+0xaa8>
+ .byte 196,98,125,121,5,254,170,0,0 // vpbroadcastw 0xaafe(%rip),%ymm8 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0xaa8>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -45951,24 +46444,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2e818 <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2f0d8 <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2ea34 <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2f2f4 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2e924 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2f1e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2e924 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2f1e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2e924 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2f1e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -45978,7 +46471,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2e924 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2f1e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -45990,7 +46483,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2e924 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2f1e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46004,13 +46497,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,53,169,0,0 // vpbroadcastw 0xa935(%rip),%ymm9 # 39262 <_sk_srcover_bgra_8888_sse2_lowp+0xaaa>
+ .byte 196,98,125,121,13,53,169,0,0 // vpbroadcastw 0xa935(%rip),%ymm9 # 39b22 <_sk_srcover_bgra_8888_sse2_lowp+0xaaa>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,29,169,0,0 // vpbroadcastw 0xa91d(%rip),%ymm11 # 39264 <_sk_srcover_bgra_8888_sse2_lowp+0xaac>
+ .byte 196,98,125,121,29,29,169,0,0 // vpbroadcastw 0xa91d(%rip),%ymm11 # 39b24 <_sk_srcover_bgra_8888_sse2_lowp+0xaac>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,17,169,0,0 // vpbroadcastw 0xa911(%rip),%ymm11 # 39266 <_sk_srcover_bgra_8888_sse2_lowp+0xaae>
+ .byte 196,98,125,121,29,17,169,0,0 // vpbroadcastw 0xa911(%rip),%ymm11 # 39b26 <_sk_srcover_bgra_8888_sse2_lowp+0xaae>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -46020,7 +46513,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,216,168,0,0 // vpbroadcastw 0xa8d8(%rip),%ymm11 # 39268 <_sk_srcover_bgra_8888_sse2_lowp+0xab0>
+ .byte 196,98,125,121,29,216,168,0,0 // vpbroadcastw 0xa8d8(%rip),%ymm11 # 39b28 <_sk_srcover_bgra_8888_sse2_lowp+0xab0>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -46029,7 +46522,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,168,168,0,0 // vpbroadcastw 0xa8a8(%rip),%ymm12 # 3926a <_sk_srcover_bgra_8888_sse2_lowp+0xab2>
+ .byte 196,98,125,121,37,168,168,0,0 // vpbroadcastw 0xa8a8(%rip),%ymm12 # 39b2a <_sk_srcover_bgra_8888_sse2_lowp+0xab2>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46102,7 +46595,7 @@ _sk_clamp_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46119,7 +46612,7 @@ _sk_repeat_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46129,10 +46622,10 @@ HIDDEN _sk_mirror_x_1_hsw_lowp
.globl _sk_mirror_x_1_hsw_lowp
FUNCTION(_sk_mirror_x_1_hsw_lowp)
_sk_mirror_x_1_hsw_lowp:
- .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 38a80 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
@@ -46143,13 +46636,13 @@ _sk_mirror_x_1_hsw_lowp:
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 38bf8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 394b8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,193,124,84,192 // vandps %ymm8,%ymm0,%ymm0
.byte 196,193,116,84,200 // vandps %ymm8,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46169,7 +46662,7 @@ _sk_gradient_hsw_lowp:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,60 // jb 2ebc8 <_sk_gradient_hsw_lowp+0x6d>
+ .byte 114,60 // jb 2f488 <_sk_gradient_hsw_lowp+0x6d>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
@@ -46181,9 +46674,9 @@ _sk_gradient_hsw_lowp:
.byte 197,213,250,234 // vpsubd %ymm2,%ymm5,%ymm5
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,224 // jne 2eb9e <_sk_gradient_hsw_lowp+0x43>
+ .byte 117,224 // jne 2f45e <_sk_gradient_hsw_lowp+0x43>
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 2ec7c <_sk_gradient_hsw_lowp+0x121>
+ .byte 15,135,180,0,0,0 // ja 2f53c <_sk_gradient_hsw_lowp+0x121>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -46220,7 +46713,7 @@ _sk_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,85,22,255 // vpermps %ymm15,%ymm5,%ymm7
- .byte 233,34,1,0,0 // jmpq 2ed9e <_sk_gradient_hsw_lowp+0x243>
+ .byte 233,34,1,0,0 // jmpq 2f65e <_sk_gradient_hsw_lowp+0x243>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
@@ -46289,8 +46782,8 @@ _sk_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -46300,7 +46793,7 @@ _sk_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,108,164,0,0 // vmovdqa 0xa46c(%rip),%ymm4 # 39280 <_sk_srcover_bgra_8888_sse2_lowp+0xac8>
+ .byte 197,253,111,37,108,164,0,0 // vmovdqa 0xa46c(%rip),%ymm4 # 39b40 <_sk_srcover_bgra_8888_sse2_lowp+0xac8>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -46349,9 +46842,9 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 76,139,0 // mov (%rax),%r8
.byte 77,137,193 // mov %r8,%r9
.byte 73,255,201 // dec %r9
- .byte 120,7 // js 2eef9 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
+ .byte 120,7 // js 2f7b9 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
.byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2
- .byte 235,22 // jmp 2ef0f <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
+ .byte 235,22 // jmp 2f7cf <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
.byte 77,137,202 // mov %r9,%r10
.byte 73,209,234 // shr %r10
.byte 65,131,225,1 // and $0x1,%r9d
@@ -46364,7 +46857,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,126,91,242 // vcvttps2dq %ymm2,%ymm14
.byte 197,254,91,251 // vcvttps2dq %ymm3,%ymm7
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 2efe2 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
+ .byte 15,135,180,0,0,0 // ja 2f8a2 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -46401,7 +46894,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,13,22,255 // vpermps %ymm15,%ymm14,%ymm7
- .byte 233,33,1,0,0 // jmpq 2f103 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
+ .byte 233,33,1,0,0 // jmpq 2f9c3 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -46470,8 +46963,8 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -46481,7 +46974,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,39,161,0,0 // vmovdqa 0xa127(%rip),%ymm4 # 392a0 <_sk_srcover_bgra_8888_sse2_lowp+0xae8>
+ .byte 197,253,111,37,39,161,0,0 // vmovdqa 0xa127(%rip),%ymm4 # 39b60 <_sk_srcover_bgra_8888_sse2_lowp+0xae8>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -46527,12 +47020,12 @@ _sk_evenly_spaced_2_stop_gradient_hsw_lowp:
.byte 197,124,40,194 // vmovaps %ymm2,%ymm8
.byte 196,98,125,168,195 // vfmadd213ps %ymm3,%ymm0,%ymm8
.byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
.byte 196,66,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 197,125,111,21,80,160,0,0 // vmovdqa 0xa050(%rip),%ymm10 # 392c0 <_sk_srcover_bgra_8888_sse2_lowp+0xb08>
+ .byte 197,125,111,21,80,160,0,0 // vmovdqa 0xa050(%rip),%ymm10 # 39b80 <_sk_srcover_bgra_8888_sse2_lowp+0xb08>
.byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
.byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
.byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
@@ -46596,7 +47089,7 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 197,252,40,227 // vmovaps %ymm3,%ymm4
.byte 197,252,40,217 // vmovaps %ymm1,%ymm3
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 38bf8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 394b8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,65,116,84,200 // vandps %ymm8,%ymm1,%ymm9
.byte 196,65,100,84,208 // vandps %ymm8,%ymm3,%ymm10
.byte 196,65,108,84,216 // vandps %ymm8,%ymm2,%ymm11
@@ -46610,20 +47103,20 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,45,74,192,192 // vblendvps %ymm12,%ymm8,%ymm10,%ymm8
.byte 196,65,4,94,192 // vdivps %ymm8,%ymm15,%ymm8
.byte 196,65,60,89,208 // vmulps %ymm8,%ymm8,%ymm10
- .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 38b94 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 38b98 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 39454 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 39458 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,124,40,251 // vmovaps %ymm11,%ymm15
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 38b9c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3945c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 38ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 39460 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,193,52,89,195 // vmulps %ymm11,%ymm9,%ymm0
- .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 38ba4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 39464 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 197,52,92,208 // vsubps %ymm0,%ymm9,%ymm10
.byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
.byte 196,65,60,89,199 // vmulps %ymm15,%ymm8,%ymm8
@@ -46631,14 +47124,14 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,193,116,194,201,1 // vcmpltps %ymm9,%ymm1,%ymm1
- .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,44,92,216 // vsubps %ymm0,%ymm10,%ymm11
.byte 196,195,125,74,195,16 // vblendvps %ymm1,%ymm11,%ymm0,%ymm0
.byte 196,193,100,194,201,1 // vcmpltps %ymm9,%ymm3,%ymm1
.byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3
.byte 196,227,61,74,203,16 // vblendvps %ymm1,%ymm3,%ymm8,%ymm1
.byte 196,193,108,194,217,1 // vcmpltps %ymm9,%ymm2,%ymm3
- .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 38a68 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 39328 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,208 // vsubps %ymm0,%ymm8,%ymm10
.byte 196,195,125,74,194,48 // vblendvps %ymm3,%ymm10,%ymm0,%ymm0
.byte 196,193,92,194,217,1 // vcmpltps %ymm9,%ymm4,%ymm3
@@ -46684,9 +47177,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 2f557 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 2fe17 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 2f81c <_sk_srcover_rgba_8888_hsw_lowp+0x321>
+ .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 300dc <_sk_srcover_rgba_8888_hsw_lowp+0x321>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46696,10 +47189,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 2f66d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 2ff2d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 2f66d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 2ff2d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -46708,7 +47201,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 2f66d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 2ff2d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46724,7 +47217,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 2f66d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 2ff2d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46734,7 +47227,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 2f66d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 2ff2d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46754,9 +47247,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,74,156,0,0 // vmovdqa 0x9c4a(%rip),%ymm8 # 392e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb28>
+ .byte 197,125,111,5,74,156,0,0 // vmovdqa 0x9c4a(%rip),%ymm8 # 39ba0 <_sk_srcover_bgra_8888_sse2_lowp+0xb28>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,92,156,0,0 // vpbroadcastw 0x9c5c(%rip),%ymm9 # 39300 <_sk_srcover_bgra_8888_sse2_lowp+0xb48>
+ .byte 196,98,125,121,13,92,156,0,0 // vpbroadcastw 0x9c5c(%rip),%ymm9 # 39bc0 <_sk_srcover_bgra_8888_sse2_lowp+0xb48>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -46795,19 +47288,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 2f77e <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 2f858 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
+ .byte 119,26 // ja 3003e <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 30118 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 2f815 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 300d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 2f815 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 300d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 2f815 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 300d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -46815,12 +47308,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 2f815 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 300d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 2f815 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 300d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -46859,10 +47352,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255,64,254 // incl -0x2(%rax)
.byte 255 // (bad)
- .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b02f84f <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
+ .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b03010f <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d02f857 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
+ .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d030117 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -46880,7 +47373,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2f87d <_sk_srcover_rgba_8888_hsw_lowp+0x382>
+ .byte 120,255 // js 3013d <_sk_srcover_rgba_8888_hsw_lowp+0x382>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -46907,9 +47400,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 2f8f0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 301b0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2fbb4 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 30474 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46919,10 +47412,10 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 2fa06 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 302c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 2fa06 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 302c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -46931,7 +47424,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 2fa06 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 302c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46947,7 +47440,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 2fa06 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 302c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46957,7 +47450,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 2fa06 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 302c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46977,9 +47470,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,241,152,0,0 // vmovdqa 0x98f1(%rip),%ymm8 # 39320 <_sk_srcover_bgra_8888_sse2_lowp+0xb68>
+ .byte 197,125,111,5,241,152,0,0 // vmovdqa 0x98f1(%rip),%ymm8 # 39be0 <_sk_srcover_bgra_8888_sse2_lowp+0xb68>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
- .byte 196,98,125,121,13,3,153,0,0 // vpbroadcastw 0x9903(%rip),%ymm9 # 39340 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 196,98,125,121,13,3,153,0,0 // vpbroadcastw 0x9903(%rip),%ymm9 # 39c00 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -47018,19 +47511,19 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 2fb17 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2fbf0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 303d7 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 304b0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 2fbae <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 3046e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 2fbae <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 3046e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 2fbae <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 3046e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -47038,12 +47531,12 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 2fbae <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 3046e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 2fbae <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 3046e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -47091,7 +47584,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02fbf4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f0304b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -47109,7 +47602,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2fc15 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 304d5 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -47142,13 +47635,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2fce2 <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 305a2 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2fcb0 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 30570 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -47167,10 +47660,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2fc79 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 30539 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2fcd9 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 30599 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -47184,7 +47677,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2fc6b <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 3052b <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -47215,7 +47708,7 @@ _sk_seed_shader_sse41_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,128,150,0,0 // addps 0x9680(%rip),%xmm2 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,21,128,150,0,0 // addps 0x9680(%rip),%xmm2 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -47392,7 +47885,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,197,147,0,0 // movaps 0x93c5(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,197,147,0,0 // movaps 0x93c5(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -47403,7 +47896,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,177,147,0,0 // movaps 0x93b1(%rip),%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,5,177,147,0,0 // movaps 0x93b1(%rip),%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -47414,10 +47907,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -47464,7 +47957,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,253,146,0,0 // movdqa 0x92fd(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,253,146,0,0 // movdqa 0x92fd(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -47481,7 +47974,7 @@ HIDDEN _sk_premul_dst_sse41_lowp
FUNCTION(_sk_premul_dst_sse41_lowp)
_sk_premul_dst_sse41_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,198,146,0,0 // movdqa 0x92c6(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,198,146,0,0 // movdqa 0x92c6(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -47529,7 +48022,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,100,146,0,0 // movdqa 0x9264(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,100,146,0,0 // movdqa 0x9264(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -47561,7 +48054,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,8,146,0,0 // movdqa 0x9208(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,111,29,8,146,0,0 // movdqa 0x9208(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -47593,7 +48086,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,136,145,0,0 // movdqa 0x9188(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,136,145,0,0 // movdqa 0x9188(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -47622,7 +48115,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,19,145,0,0 // movdqa 0x9113(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,19,145,0,0 // movdqa 0x9113(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -47643,7 +48136,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,202,144,0,0 // movdqa 0x90ca(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,202,144,0,0 // movdqa 0x90ca(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -47664,7 +48157,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,129,144,0,0 // movdqa 0x9081(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,129,144,0,0 // movdqa 0x9081(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -47687,7 +48180,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,42,144,0,0 // movdqa 0x902a(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,42,144,0,0 // movdqa 0x902a(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -47712,7 +48205,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,208,143,0,0 // movdqa 0x8fd0(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,208,143,0,0 // movdqa 0x8fd0(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -47741,7 +48234,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,86,143,0,0 // movdqa 0x8f56(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,86,143,0,0 // movdqa 0x8f56(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -47768,7 +48261,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,239,142,0,0 // movdqa 0x8eef(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,239,142,0,0 // movdqa 0x8eef(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -47787,7 +48280,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,174,142,0,0 // movdqa 0x8eae(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,174,142,0,0 // movdqa 0x8eae(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -47830,7 +48323,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,243,141,0,0 // movdqa 0x8df3(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,243,141,0,0 // movdqa 0x8df3(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -47850,7 +48343,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,173,141,0,0 // movdqa 0x8dad(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,21,173,141,0,0 // movdqa 0x8dad(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -47882,7 +48375,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,43,141,0,0 // movdqa 0x8d2b(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,43,141,0,0 // movdqa 0x8d2b(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -47925,7 +48418,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,114,140,0,0 // movdqa 0x8c72(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,114,140,0,0 // movdqa 0x8c72(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -47969,7 +48462,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,181,139,0,0 // movdqa 0x8bb5(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,181,139,0,0 // movdqa 0x8bb5(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -48013,10 +48506,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,248,138,0,0 // movdqa 0x8af8(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,248,138,0,0 // movdqa 0x8af8(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,69,146,0,0 // movdqa 0x9245(%rip),%xmm10 # 39ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,21,69,146,0,0 // movdqa 0x9245(%rip),%xmm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -48058,10 +48551,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,52,138,0,0 // movdqa 0x8a34(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,52,138,0,0 // movdqa 0x8a34(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,129,145,0,0 // movdqa 0x9181(%rip),%xmm10 # 39ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,21,129,145,0,0 // movdqa 0x9181(%rip),%xmm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -48097,14 +48590,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,143,137,0,0 // movdqa 0x898f(%rip),%xmm11 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,29,143,137,0,0 // movdqa 0x898f(%rip),%xmm11 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,216,144,0,0 // movdqa 0x90d8(%rip),%xmm9 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,13,216,144,0,0 // movdqa 0x90d8(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -48151,7 +48644,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,128,136,0,0 // movdqa 0x8880(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,128,136,0,0 // movdqa 0x8880(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -48190,7 +48683,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,227,135,0,0 // movdqa 0x87e3(%rip),%xmm11 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,29,227,135,0,0 // movdqa 0x87e3(%rip),%xmm11 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -48202,7 +48695,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,20,143,0,0 // movdqa 0x8f14(%rip),%xmm9 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,13,20,143,0,0 // movdqa 0x8f14(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -48248,7 +48741,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,198,134,0,0 // movdqa 0x86c6(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,198,134,0,0 // movdqa 0x86c6(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -48291,49 +48784,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30d4c <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 3160c <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 30e24 <_sk_load_8888_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 316e4 <_sk_load_8888_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 30da5 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 31665 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 30da5 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 31665 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 30da5 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 31665 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,35,141,0,0 // movdqa 0x8d23(%rip),%xmm0 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,15,111,5,35,141,0,0 // movdqa 0x8d23(%rip),%xmm0 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,131,133,0,0 // movdqa 0x8583(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,131,133,0,0 // movdqa 0x8583(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,252,140,0,0 // movdqa 0x8cfc(%rip),%xmm10 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,252,140,0,0 // movdqa 0x8cfc(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,233,140,0,0 // movdqa 0x8ce9(%rip),%xmm10 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,21,233,140,0,0 // movdqa 0x8ce9(%rip),%xmm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -48349,7 +48842,7 @@ _sk_load_8888_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 30e31 <_sk_load_8888_sse41_lowp+0x129>
+ .byte 123,255 // jnp 316f1 <_sk_load_8888_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48371,49 +48864,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30e84 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 31744 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 30f5c <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3181c <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 30edd <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 3179d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 30edd <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 3179d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 30edd <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 3179d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,235,139,0,0 // movdqa 0x8beb(%rip),%xmm4 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,15,111,37,235,139,0,0 // movdqa 0x8beb(%rip),%xmm4 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,75,132,0,0 // movdqa 0x844b(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,75,132,0,0 // movdqa 0x844b(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,196,139,0,0 // movdqa 0x8bc4(%rip),%xmm10 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,196,139,0,0 // movdqa 0x8bc4(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,177,139,0,0 // movdqa 0x8bb1(%rip),%xmm10 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,21,177,139,0,0 // movdqa 0x8bb1(%rip),%xmm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -48429,7 +48922,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 30f69 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 31829 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48466,20 +48959,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 30ffe <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 318be <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 31044 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 31904 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 3103d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 318fd <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 3103d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 318fd <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 3103d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 318fd <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -48523,49 +49016,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 310a4 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 31964 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3117c <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31a3c <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 310fd <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 319bd <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 310fd <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 319bd <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 310fd <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 319bd <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,203,137,0,0 // movdqa 0x89cb(%rip),%xmm2 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,15,111,21,203,137,0,0 // movdqa 0x89cb(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,43,130,0,0 // movdqa 0x822b(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,43,130,0,0 // movdqa 0x822b(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,164,137,0,0 // movdqa 0x89a4(%rip),%xmm10 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,164,137,0,0 // movdqa 0x89a4(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,145,137,0,0 // movdqa 0x8991(%rip),%xmm10 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,21,145,137,0,0 // movdqa 0x8991(%rip),%xmm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -48581,7 +49074,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 31189 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 31a49 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48603,49 +49096,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 311dc <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 31a9c <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 312b4 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31b74 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 31235 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 31af5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 31235 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 31af5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 31235 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 31af5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,147,136,0,0 // movdqa 0x8893(%rip),%xmm6 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,15,111,53,147,136,0,0 // movdqa 0x8893(%rip),%xmm6 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,243,128,0,0 // movdqa 0x80f3(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,243,128,0,0 // movdqa 0x80f3(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,108,136,0,0 // movdqa 0x886c(%rip),%xmm10 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,108,136,0,0 // movdqa 0x886c(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,89,136,0,0 // movdqa 0x8859(%rip),%xmm10 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,21,89,136,0,0 // movdqa 0x8859(%rip),%xmm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -48661,7 +49154,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 312c1 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 31b81 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48698,20 +49191,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 31356 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 31c16 <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 3139c <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 31c5c <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 31395 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 31c55 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 31395 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 31c55 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 31395 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 31c55 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -48814,17 +49307,17 @@ _sk_gather_8888_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,92,126,0,0 // movdqa 0x7e5c(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,92,126,0,0 // movdqa 0x7e5c(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,213,133,0,0 // movdqa 0x85d5(%rip),%xmm10 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,213,133,0,0 // movdqa 0x85d5(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,194,133,0,0 // movdqa 0x85c2(%rip),%xmm10 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,21,194,133,0,0 // movdqa 0x85c2(%rip),%xmm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -48909,17 +49402,17 @@ _sk_gather_bgra_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,196,124,0,0 // movdqa 0x7cc4(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,196,124,0,0 // movdqa 0x7cc4(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,61,132,0,0 // movdqa 0x843d(%rip),%xmm10 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,61,132,0,0 // movdqa 0x843d(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,42,132,0,0 // movdqa 0x842a(%rip),%xmm10 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,21,42,132,0,0 // movdqa 0x842a(%rip),%xmm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -48945,23 +49438,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31724 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 31fe4 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 317d4 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32094 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 3176e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 3202e <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 3176e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 3202e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 3176e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 3202e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -48970,11 +49463,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,129,131,0,0 // pand 0x8381(%rip),%xmm3 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,29,129,131,0,0 // pand 0x8381(%rip),%xmm3 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,128,131,0,0 // pand 0x8380(%rip),%xmm1 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,15,111,21,136,131,0,0 // movdqa 0x8388(%rip),%xmm2 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,15,219,13,128,131,0,0 // pand 0x8380(%rip),%xmm1 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,111,21,136,131,0,0 // movdqa 0x8388(%rip),%xmm2 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -48987,7 +49480,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,126,123,0,0 // movaps 0x7b7e(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,126,123,0,0 // movaps 0x7b7e(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -48998,7 +49491,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 317e9 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 320a9 <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49017,23 +49510,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3182c <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 320ec <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 318dc <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 3219c <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 31876 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 32136 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 31876 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 32136 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 31876 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 32136 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -49042,11 +49535,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,121,130,0,0 // pand 0x8279(%rip),%xmm7 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,61,121,130,0,0 // pand 0x8279(%rip),%xmm7 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,120,130,0,0 // pand 0x8278(%rip),%xmm5 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,15,111,53,128,130,0,0 // movdqa 0x8280(%rip),%xmm6 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,15,219,45,120,130,0,0 // pand 0x8278(%rip),%xmm5 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,111,53,128,130,0,0 // movdqa 0x8280(%rip),%xmm6 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -49059,7 +49552,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,118,122,0,0 // movaps 0x7a76(%rip),%xmm7 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,61,118,122,0,0 // movaps 0x7a76(%rip),%xmm7 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -49070,7 +49563,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 318f1 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 321b1 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49087,10 +49580,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,20,130,0,0 // pand 0x8214(%rip),%xmm8 # 39b30 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
+ .byte 102,68,15,219,5,20,130,0,0 // pand 0x8214(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,16,130,0,0 // pand 0x8210(%rip),%xmm9 # 39b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,68,15,219,13,16,130,0,0 // pand 0x8210(%rip),%xmm9 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -49099,19 +49592,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3196c <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 3222c <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 319ac <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 3226c <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 319a6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 32266 <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 319a6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 32266 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 319a6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 32266 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -49131,7 +49624,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 319bd <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 3227d <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -49208,11 +49701,11 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,196,192,7 // pinsrw $0x7,%eax,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,30,128,0,0 // pand 0x801e(%rip),%xmm3 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,29,30,128,0,0 // pand 0x801e(%rip),%xmm3 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,29,128,0,0 // pand 0x801d(%rip),%xmm1 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,15,111,21,37,128,0,0 // movdqa 0x8025(%rip),%xmm2 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,15,219,13,29,128,0,0 // pand 0x801d(%rip),%xmm1 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,111,21,37,128,0,0 // movdqa 0x8025(%rip),%xmm2 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -49225,7 +49718,7 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,27,120,0,0 // movaps 0x781b(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,27,120,0,0 // movaps 0x781b(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -49246,23 +49739,23 @@ _sk_load_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 31b7c <_sk_load_4444_sse41_lowp+0x3d>
+ .byte 119,35 // ja 3243c <_sk_load_4444_sse41_lowp+0x3d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 31c38 <_sk_load_4444_sse41_lowp+0xf9>
+ .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 324f8 <_sk_load_4444_sse41_lowp+0xf9>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 31bc8 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,76 // jmp 32488 <_sk_load_4444_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 31bc8 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,68 // jmp 32488 <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,192,252 // pblendw $0xfc,%xmm0,%xmm8
- .byte 235,41 // jmp 31bc8 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,41 // jmp 32488 <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -49273,7 +49766,7 @@ _sk_load_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,108,127,0,0 // movdqa 0x7f6c(%rip),%xmm0 # 39b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,15,111,5,108,127,0,0 // movdqa 0x7f6c(%rip),%xmm0 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -49321,23 +49814,23 @@ _sk_load_4444_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 31c91 <_sk_load_4444_dst_sse41_lowp+0x3d>
+ .byte 119,35 // ja 32551 <_sk_load_4444_dst_sse41_lowp+0x3d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 31d4c <_sk_load_4444_dst_sse41_lowp+0xf8>
+ .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 3260c <_sk_load_4444_dst_sse41_lowp+0xf8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 31cdd <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,76 // jmp 3259d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 31cdd <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,68 // jmp 3259d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,196,252 // pblendw $0xfc,%xmm4,%xmm8
- .byte 235,41 // jmp 31cdd <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,41 // jmp 3259d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -49348,7 +49841,7 @@ _sk_load_4444_dst_sse41_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,87,126,0,0 // movdqa 0x7e57(%rip),%xmm4 # 39b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,15,111,37,87,126,0,0 // movdqa 0x7e57(%rip),%xmm4 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -49393,12 +49886,12 @@ _sk_store_4444_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,212,125,0,0 // pand 0x7dd4(%rip),%xmm8 # 39b60 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
+ .byte 102,68,15,219,5,212,125,0,0 // pand 0x7dd4(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,208,125,0,0 // pand 0x7dd0(%rip),%xmm9 # 39b70 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
+ .byte 102,68,15,219,13,208,125,0,0 // pand 0x7dd0(%rip),%xmm9 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,210,125,0,0 // movdqa 0x7dd2(%rip),%xmm10 # 39b80 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
+ .byte 102,68,15,111,21,210,125,0,0 // movdqa 0x7dd2(%rip),%xmm10 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -49408,19 +49901,19 @@ _sk_store_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 31def <_sk_store_4444_sse41_lowp+0x87>
+ .byte 119,29 // ja 326af <_sk_store_4444_sse41_lowp+0x87>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 31e30 <_sk_store_4444_sse41_lowp+0xc8>
+ .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 326f0 <_sk_store_4444_sse41_lowp+0xc8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 31e29 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,58 // jmp 326e9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 31e29 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,50 // jmp 326e9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 31e29 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,33 // jmp 326e9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -49520,7 +50013,7 @@ _sk_gather_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,216,123,0,0 // movdqa 0x7bd8(%rip),%xmm0 # 39b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,15,111,5,216,123,0,0 // movdqa 0x7bd8(%rip),%xmm0 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -49558,18 +50051,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3200a <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 328ca <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 32088 <_sk_load_a8_sse41_lowp+0xb7>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 32948 <_sk_load_a8_sse41_lowp+0xb7>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 3206e <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 3292e <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 3206e <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 3292e <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -49577,7 +50070,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 3206e <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 3292e <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -49588,14 +50081,14 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,218,114,0,0 // pand 0x72da(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,29,218,114,0,0 // pand 0x72da(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 32089 <_sk_load_a8_sse41_lowp+0xb8>
+ .byte 119,255 // ja 32949 <_sk_load_a8_sse41_lowp+0xb8>
.byte 255 // (bad)
.byte 255,154,255,255,255,139 // lcall *-0x74000001(%rdx)
.byte 255 // (bad)
@@ -49624,18 +50117,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 320dd <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 3299d <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 32158 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 32a18 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 32141 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 32a01 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 32141 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 32a01 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -49643,7 +50136,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 32141 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 32a01 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -49654,13 +50147,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,7,114,0,0 // pand 0x7207(%rip),%xmm7 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,61,7,114,0,0 // pand 0x7207(%rip),%xmm7 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 32159 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 32a19 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -49691,28 +50184,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 321a8 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 32a68 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 32218 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 32ad8 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 32211 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 32ad1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,233,120,0,0 // pshufb 0x78e9(%rip),%xmm8 # 39aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
+ .byte 102,68,15,56,0,5,233,120,0,0 // pshufb 0x78e9(%rip),%xmm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 32211 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 32ad1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,137,113,0,0 // pshufb 0x7189(%rip),%xmm8 # 39360 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
+ .byte 102,68,15,56,0,5,137,113,0,0 // pshufb 0x7189(%rip),%xmm8 # 39c20 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 32211 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 32ad1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,101,113,0,0 // pshufb 0x7165(%rip),%xmm8 # 39370 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
+ .byte 102,68,15,56,0,5,101,113,0,0 // pshufb 0x7165(%rip),%xmm8 # 39c30 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49825,18 +50318,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3239a <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 32c5a <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 3241c <_sk_load_g8_sse41_lowp+0xbb>
+ .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 32cdc <_sk_load_g8_sse41_lowp+0xbb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 323fe <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 32cbe <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 323fe <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 32cbe <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -49844,7 +50337,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 323fe <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 32cbe <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -49855,14 +50348,14 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,74,111,0,0 // pand 0x6f4a(%rip),%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,5,74,111,0,0 // pand 0x6f4a(%rip),%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,65,111,0,0 // movaps 0x6f41(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,65,111,0,0 // movaps 0x6f41(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 115,255 // jae 3241d <_sk_load_g8_sse41_lowp+0xbc>
+ .byte 115,255 // jae 32cdd <_sk_load_g8_sse41_lowp+0xbc>
.byte 255 // (bad)
.byte 255,150,255,255,255,135 // callq *-0x78000001(%rsi)
.byte 255 // (bad)
@@ -49891,18 +50384,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32471 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 32d31 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 324f0 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 32db0 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 324d5 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 32d95 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 324d5 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 32d95 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -49910,7 +50403,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 324d5 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 32d95 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -49921,13 +50414,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,115,110,0,0 // pand 0x6e73(%rip),%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,37,115,110,0,0 // pand 0x6e73(%rip),%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,106,110,0,0 // movaps 0x6e6a(%rip),%xmm7 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,61,106,110,0,0 // movaps 0x6e6a(%rip),%xmm7 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 324f1 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 32db1 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -49949,10 +50442,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,120,118,0,0 // pmullw 0x7678(%rip),%xmm0 # 39b90 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- .byte 102,15,213,13,128,118,0,0 // pmullw 0x7680(%rip),%xmm1 # 39ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
+ .byte 102,15,213,5,120,118,0,0 // pmullw 0x7678(%rip),%xmm0 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
+ .byte 102,15,213,13,128,118,0,0 // pmullw 0x7680(%rip),%xmm1 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,132,118,0,0 // pmullw 0x7684(%rip),%xmm3 # 39bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
+ .byte 102,15,213,29,132,118,0,0 // pmullw 0x7684(%rip),%xmm3 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -50028,7 +50521,7 @@ _sk_gather_g8_sse41_lowp:
.byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,237,108,0,0 // movaps 0x6ced(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,237,108,0,0 // movaps 0x6ced(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -50044,14 +50537,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,158,108,0,0 // movdqa 0x6c9e(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,158,108,0,0 // movdqa 0x6c9e(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50072,13 +50565,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,43,108,0,0 // movdqa 0x6c2b(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,43,108,0,0 // movdqa 0x6c2b(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50118,18 +50611,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 327dc <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 3309c <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 328a4 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 33164 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 3284b <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 3310b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 3284b <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 3310b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -50137,7 +50630,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 3284b <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 3310b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -50148,9 +50641,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,252,106,0,0 // pand 0x6afc(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,219,5,252,106,0,0 // pand 0x6afc(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,238,106,0,0 // movdqa 0x6aee(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,238,106,0,0 // movdqa 0x6aee(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50175,7 +50668,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 328b9 <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 33179 <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -50193,18 +50686,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 328fb <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 331bb <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 32a04 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 332c4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 3296a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 3322a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 3296a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 3322a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -50212,7 +50705,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 3296a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 3322a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -50223,8 +50716,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,221,105,0,0 // pand 0x69dd(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
- .byte 102,68,15,111,21,212,105,0,0 // movdqa 0x69d4(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,219,5,221,105,0,0 // pand 0x69dd(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,21,212,105,0,0 // movdqa 0x69d4(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -50254,7 +50747,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 32a04 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 332c4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -50288,23 +50781,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 32a62 <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 33322 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 32bbc <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 3347c <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 32aae <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 3336e <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 32aae <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 3336e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 32aae <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 3336e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -50313,11 +50806,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,64,112,0,0 // pand 0x7040(%rip),%xmm0 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,5,64,112,0,0 // pand 0x7040(%rip),%xmm0 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,60,112,0,0 // pand 0x703c(%rip),%xmm10 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,68,15,111,29,67,112,0,0 // movdqa 0x7043(%rip),%xmm11 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,68,15,219,21,60,112,0,0 // pand 0x703c(%rip),%xmm10 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,111,29,67,112,0,0 // movdqa 0x7043(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -50329,7 +50822,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,161,111,0,0 // movdqa 0x6fa1(%rip),%xmm0 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,5,161,111,0,0 // movdqa 0x6fa1(%rip),%xmm0 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -50342,7 +50835,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,233,103,0,0 // movdqa 0x67e9(%rip),%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,111,5,233,103,0,0 // movdqa 0x67e9(%rip),%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -50396,23 +50889,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 32c1a <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 334da <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 32dc0 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 33680 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 32c66 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 33526 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 32c66 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 33526 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 32c66 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 33526 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -50421,11 +50914,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,136,110,0,0 // pand 0x6e88(%rip),%xmm0 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,5,136,110,0,0 // pand 0x6e88(%rip),%xmm0 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,132,110,0,0 // pand 0x6e84(%rip),%xmm10 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,68,15,111,29,139,110,0,0 // movdqa 0x6e8b(%rip),%xmm11 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,68,15,219,21,132,110,0,0 // pand 0x6e84(%rip),%xmm10 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,111,29,139,110,0,0 // movdqa 0x6e8b(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -50437,7 +50930,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,233,109,0,0 // movdqa 0x6de9(%rip),%xmm0 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,5,233,109,0,0 // movdqa 0x6de9(%rip),%xmm0 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -50449,7 +50942,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,53,102,0,0 // movdqa 0x6635(%rip),%xmm13 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,45,53,102,0,0 // movdqa 0x6635(%rip),%xmm13 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -50506,7 +50999,7 @@ _sk_clamp_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,192,101,0,0 // movaps 0x65c0(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,192,101,0,0 // movaps 0x65c0(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -50523,7 +51016,7 @@ _sk_repeat_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,138,101,0,0 // movaps 0x658a(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,138,101,0,0 // movaps 0x658a(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -50533,10 +51026,10 @@ HIDDEN _sk_mirror_x_1_sse41_lowp
.globl _sk_mirror_x_1_sse41_lowp
FUNCTION(_sk_mirror_x_1_sse41_lowp)
_sk_mirror_x_1_sse41_lowp:
- .byte 68,15,40,5,214,101,0,0 // movaps 0x65d6(%rip),%xmm8 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,5,214,101,0,0 // movaps 0x65d6(%rip),%xmm8 # 39cd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,13,86,101,0,0 // movaps 0x6556(%rip),%xmm9 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,86,101,0,0 // movaps 0x6556(%rip),%xmm9 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 68,15,89,200 // mulps %xmm0,%xmm9
@@ -50548,13 +51041,13 @@ _sk_mirror_x_1_sse41_lowp:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,76,106,0,0 // movaps 0x6a4c(%rip),%xmm8 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 68,15,40,5,76,106,0,0 // movaps 0x6a4c(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,16,101,0,0 // movaps 0x6510(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,16,101,0,0 // movaps 0x6510(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -50581,7 +51074,7 @@ _sk_gradient_sse41_lowp:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 72,131,249,2 // cmp $0x2,%rcx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,57 // jb 32f21 <_sk_gradient_sse41_lowp+0x75>
+ .byte 114,57 // jb 337e1 <_sk_gradient_sse41_lowp+0x75>
.byte 72,139,80,72 // mov 0x48(%rax),%rdx
.byte 72,255,201 // dec %rcx
.byte 72,131,194,4 // add $0x4,%rdx
@@ -50596,7 +51089,7 @@ _sk_gradient_sse41_lowp:
.byte 102,15,250,218 // psubd %xmm2,%xmm3
.byte 72,131,194,4 // add $0x4,%rdx
.byte 72,255,201 // dec %rcx
- .byte 117,219 // jne 32efc <_sk_gradient_sse41_lowp+0x50>
+ .byte 117,219 // jne 337bc <_sk_gradient_sse41_lowp+0x50>
.byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx
.byte 65,137,221 // mov %ebx,%r13d
.byte 72,193,235,32 // shr $0x20,%rbx
@@ -50675,14 +51168,14 @@ _sk_gradient_sse41_lowp:
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,61,147,99,0,0 // movaps 0x6393(%rip),%xmm7 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 15,40,61,147,99,0,0 // movaps 0x6393(%rip),%xmm7 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 68,15,89,239 // mulps %xmm7,%xmm13
.byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,40,61,148,98,0,0 // movaps 0x6294(%rip),%xmm15 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,61,148,98,0,0 // movaps 0x6294(%rip),%xmm15 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 65,15,88,223 // addps %xmm15,%xmm3
.byte 243,65,15,91,245 // cvttps2dq %xmm13,%xmm6
- .byte 102,68,15,111,45,174,105,0,0 // movdqa 0x69ae(%rip),%xmm13 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,45,174,105,0,0 // movdqa 0x69ae(%rip),%xmm13 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,197 // pshufb %xmm13,%xmm8
@@ -50786,9 +51279,9 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 332fa <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
+ .byte 120,7 // js 33bba <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 3330f <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
+ .byte 235,21 // jmp 33bcf <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -50926,14 +51419,14 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,100,36,176 // movaps -0x50(%rsp),%xmm4
.byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 15,40,5,112,94,0,0 // movaps 0x5e70(%rip),%xmm0 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 15,40,5,112,94,0,0 // movaps 0x5e70(%rip),%xmm0 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,40,53,113,93,0,0 // movaps 0x5d71(%rip),%xmm14 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,53,113,93,0,0 // movaps 0x5d71(%rip),%xmm14 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 65,15,88,222 // addps %xmm14,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,111,5,141,100,0,0 // movdqa 0x648d(%rip),%xmm0 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,15,111,5,141,100,0,0 // movdqa 0x648d(%rip),%xmm0 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 243,69,15,91,192 // cvttps2dq %xmm8,%xmm8
.byte 102,68,15,56,0,192 // pshufb %xmm0,%xmm8
@@ -50943,7 +51436,7 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 68,15,89,203 // mulps %xmm3,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,40,13,32,94,0,0 // movaps 0x5e20(%rip),%xmm1 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 15,40,13,32,94,0,0 // movaps 0x5e20(%rip),%xmm1 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -51012,14 +51505,14 @@ _sk_evenly_spaced_2_stop_gradient_sse41_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,26,93,0,0 // movaps 0x5d1a(%rip),%xmm10 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,21,26,93,0,0 // movaps 0x5d1a(%rip),%xmm10 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,37,26,92,0,0 // movaps 0x5c1a(%rip),%xmm12 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,26,92,0,0 // movaps 0x5c1a(%rip),%xmm12 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,88,220 // addps %xmm12,%xmm3
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,68,15,111,29,53,99,0,0 // movdqa 0x6335(%rip),%xmm11 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,29,53,99,0,0 // movdqa 0x6335(%rip),%xmm11 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,195 // pshufb %xmm11,%xmm8
@@ -51092,7 +51585,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 15,40,251 // movaps %xmm3,%xmm7
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,40,37,11,96,0,0 // movaps 0x600b(%rip),%xmm4 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 15,40,37,11,96,0,0 // movaps 0x600b(%rip),%xmm4 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 68,15,40,233 // movaps %xmm1,%xmm13
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -51117,18 +51610,18 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 69,15,94,251 // divps %xmm11,%xmm15
.byte 65,15,40,199 // movaps %xmm15,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,29,11,96,0,0 // movaps 0x600b(%rip),%xmm11 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,40,29,11,96,0,0 // movaps 0x600b(%rip),%xmm11 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 68,15,40,224 // movaps %xmm0,%xmm12
.byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,37,11,96,0,0 // addps 0x600b(%rip),%xmm12 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,88,37,11,96,0,0 // addps 0x600b(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,45,16,96,0,0 // movaps 0x6010(%rip),%xmm5 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 15,40,45,16,96,0,0 // movaps 0x6010(%rip),%xmm5 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 68,15,88,229 // addps %xmm5,%xmm12
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,37,17,96,0,0 // movaps 0x6011(%rip),%xmm4 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 15,40,37,17,96,0,0 // movaps 0x6011(%rip),%xmm4 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 15,40,21,18,96,0,0 // movaps 0x6012(%rip),%xmm2 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 15,40,21,18,96,0,0 // movaps 0x6012(%rip),%xmm2 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,194 // movaps %xmm10,%xmm0
@@ -51137,7 +51630,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,29,186,95,0,0 // addps 0x5fba(%rip),%xmm11 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,88,29,186,95,0,0 // addps 0x5fba(%rip),%xmm11 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 68,15,88,221 // addps %xmm5,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
@@ -51148,7 +51641,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,194,193,1 // cmpltps %xmm9,%xmm8
- .byte 15,40,21,216,89,0,0 // movaps 0x59d8(%rip),%xmm2 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,216,89,0,0 // movaps 0x59d8(%rip),%xmm2 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,192 // movaps %xmm8,%xmm0
@@ -51159,7 +51652,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0
- .byte 15,40,13,182,89,0,0 // movaps 0x59b6(%rip),%xmm1 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 15,40,13,182,89,0,0 // movaps 0x59b6(%rip),%xmm1 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
@@ -51213,48 +51706,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 33ac6 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 34386 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 33cc0 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
+ .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 34580 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 33b1f <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 343df <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 33b1f <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 343df <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 33b1f <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 343df <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,169,95,0,0 // movdqa 0x5fa9(%rip),%xmm4 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,15,111,37,169,95,0,0 // movdqa 0x5fa9(%rip),%xmm4 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,9,88,0,0 // movdqa 0x5809(%rip),%xmm12 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,37,9,88,0,0 // movdqa 0x5809(%rip),%xmm12 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,130,95,0,0 // movdqa 0x5f82(%rip),%xmm9 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,13,130,95,0,0 // movdqa 0x5f82(%rip),%xmm9 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,111,95,0,0 // movdqa 0x5f6f(%rip),%xmm9 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,13,111,95,0,0 // movdqa 0x5f6f(%rip),%xmm9 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -51296,19 +51789,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 33c69 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 33cdc <_sk_srcover_rgba_8888_sse41_lowp+0x261>
+ .byte 119,24 // ja 34529 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 3459c <_sk_srcover_rgba_8888_sse41_lowp+0x261>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 33ca8 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 34568 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 33ca8 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 34568 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 33ca8 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 34568 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -51325,7 +51818,7 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 255,38 // jmpq *(%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a033ccb <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
+ .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a03458b <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255,80,254 // callq *-0x2(%rax)
@@ -51364,48 +51857,48 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 33d43 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 34603 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 33f40 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 34800 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 33d9c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 3465c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 33d9c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 3465c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 33d9c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 3465c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,44,93,0,0 // movdqa 0x5d2c(%rip),%xmm6 # 39ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,15,111,53,44,93,0,0 // movdqa 0x5d2c(%rip),%xmm6 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,140,85,0,0 // movdqa 0x558c(%rip),%xmm12 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,37,140,85,0,0 // movdqa 0x558c(%rip),%xmm12 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,5,93,0,0 // movdqa 0x5d05(%rip),%xmm9 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,13,5,93,0,0 // movdqa 0x5d05(%rip),%xmm9 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,242,92,0,0 // movdqa 0x5cf2(%rip),%xmm9 # 39af0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,111,13,242,92,0,0 // movdqa 0x5cf2(%rip),%xmm9 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,65,15,56,0,225 // pshufb %xmm9,%xmm4
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -51447,19 +51940,19 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 33ee6 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 33f5c <_sk_srcover_bgra_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 347a6 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 3481c <_sk_srcover_bgra_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 33f25 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 347e5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 33f25 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 347e5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 33f25 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 347e5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -51524,13 +52017,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 3402e <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 348ee <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 33ffc <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 348bc <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -51549,10 +52042,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 33fc5 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 34885 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 34025 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 348e5 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -51566,7 +52059,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 33fb7 <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 34877 <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -51597,7 +52090,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,52,83,0,0 // addps 0x5334(%rip),%xmm2 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,21,52,83,0,0 // addps 0x5334(%rip),%xmm2 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -51774,7 +52267,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,121,80,0,0 // movaps 0x5079(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,121,80,0,0 // movaps 0x5079(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -51785,7 +52278,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,101,80,0,0 // movaps 0x5065(%rip),%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,5,101,80,0,0 // movaps 0x5065(%rip),%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -51796,10 +52289,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -51825,7 +52318,7 @@ HIDDEN _sk_clamp_a_sse2_lowp
.globl _sk_clamp_a_sse2_lowp
FUNCTION(_sk_clamp_a_sse2_lowp)
_sk_clamp_a_sse2_lowp:
- .byte 102,68,15,111,5,75,87,0,0 // movdqa 0x574b(%rip),%xmm8 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,5,75,87,0,0 // movdqa 0x574b(%rip),%xmm8 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
@@ -51854,7 +52347,7 @@ HIDDEN _sk_clamp_a_dst_sse2_lowp
.globl _sk_clamp_a_dst_sse2_lowp
FUNCTION(_sk_clamp_a_dst_sse2_lowp)
_sk_clamp_a_dst_sse2_lowp:
- .byte 102,68,15,111,5,213,86,0,0 // movdqa 0x56d5(%rip),%xmm8 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,5,213,86,0,0 // movdqa 0x56d5(%rip),%xmm8 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
@@ -51884,7 +52377,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,235,78,0,0 // movdqa 0x4eeb(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,235,78,0,0 // movdqa 0x4eeb(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -51901,7 +52394,7 @@ HIDDEN _sk_premul_dst_sse2_lowp
FUNCTION(_sk_premul_dst_sse2_lowp)
_sk_premul_dst_sse2_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,180,78,0,0 // movdqa 0x4eb4(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,180,78,0,0 // movdqa 0x4eb4(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -51949,7 +52442,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,82,78,0,0 // movdqa 0x4e52(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,82,78,0,0 // movdqa 0x4e52(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -51981,7 +52474,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,246,77,0,0 // movdqa 0x4df6(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,111,29,246,77,0,0 // movdqa 0x4df6(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -52013,7 +52506,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,118,77,0,0 // movdqa 0x4d76(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,118,77,0,0 // movdqa 0x4d76(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -52042,7 +52535,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,1,77,0,0 // movdqa 0x4d01(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,1,77,0,0 // movdqa 0x4d01(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -52063,7 +52556,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,184,76,0,0 // movdqa 0x4cb8(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,184,76,0,0 // movdqa 0x4cb8(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -52084,7 +52577,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,111,76,0,0 // movdqa 0x4c6f(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,111,76,0,0 // movdqa 0x4c6f(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -52107,7 +52600,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,24,76,0,0 // movdqa 0x4c18(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,24,76,0,0 // movdqa 0x4c18(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -52132,7 +52625,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,190,75,0,0 // movdqa 0x4bbe(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,190,75,0,0 // movdqa 0x4bbe(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -52161,7 +52654,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,68,75,0,0 // movdqa 0x4b44(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,68,75,0,0 // movdqa 0x4b44(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -52188,7 +52681,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,221,74,0,0 // movdqa 0x4add(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,221,74,0,0 // movdqa 0x4add(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -52207,7 +52700,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,156,74,0,0 // movdqa 0x4a9c(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,156,74,0,0 // movdqa 0x4a9c(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -52252,12 +52745,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,72,82,0,0 // movdqa 0x5248(%rip),%xmm10 # 39bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
+ .byte 102,68,15,111,21,72,82,0,0 // movdqa 0x5248(%rip),%xmm10 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,188,73,0,0 // movdqa 0x49bc(%rip),%xmm11 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,29,188,73,0,0 // movdqa 0x49bc(%rip),%xmm11 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -52296,7 +52789,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,28,73,0,0 // movdqa 0x491c(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,21,28,73,0,0 // movdqa 0x491c(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -52328,7 +52821,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,154,72,0,0 // movdqa 0x489a(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,154,72,0,0 // movdqa 0x489a(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -52370,7 +52863,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,85,79,0,0 // movdqa 0x4f55(%rip),%xmm9 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,13,85,79,0,0 // movdqa 0x4f55(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -52379,7 +52872,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,180,71,0,0 // movdqa 0x47b4(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,21,180,71,0,0 // movdqa 0x47b4(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -52435,7 +52928,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,44,78,0,0 // movdqa 0x4e2c(%rip),%xmm9 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,13,44,78,0,0 // movdqa 0x4e2c(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -52444,7 +52937,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,139,70,0,0 // movdqa 0x468b(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,21,139,70,0,0 // movdqa 0x468b(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -52500,7 +52993,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,3,77,0,0 // movdqa 0x4d03(%rip),%xmm9 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,13,3,77,0,0 // movdqa 0x4d03(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -52509,10 +53002,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,98,69,0,0 // movdqa 0x4562(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,21,98,69,0,0 // movdqa 0x4562(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,175,76,0,0 // movdqa 0x4caf(%rip),%xmm11 # 39ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,29,175,76,0,0 // movdqa 0x4caf(%rip),%xmm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -52567,10 +53060,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,95,68,0,0 // movdqa 0x445f(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,95,68,0,0 // movdqa 0x445f(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,172,75,0,0 // movdqa 0x4bac(%rip),%xmm10 # 39ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,21,172,75,0,0 // movdqa 0x4bac(%rip),%xmm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -52606,7 +53099,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,187,67,0,0 // movdqa 0x43bb(%rip),%xmm2 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,111,21,187,67,0,0 // movdqa 0x43bb(%rip),%xmm2 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -52619,7 +53112,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,231,74,0,0 // movdqa 0x4ae7(%rip),%xmm2 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,21,231,74,0,0 // movdqa 0x4ae7(%rip),%xmm2 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -52638,7 +53131,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,26,67,0,0 // paddw 0x431a(%rip),%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,253,5,26,67,0,0 // paddw 0x431a(%rip),%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -52661,7 +53154,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,165,66,0,0 // paddw 0x42a5(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,253,13,165,66,0,0 // paddw 0x42a5(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -52683,7 +53176,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,53,66,0,0 // movdqa 0x4235(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,53,66,0,0 // movdqa 0x4235(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -52711,7 +53204,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,198,65,0,0 // movdqa 0x41c6(%rip),%xmm6 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,111,53,198,65,0,0 // movdqa 0x41c6(%rip),%xmm6 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -52733,7 +53226,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,202,72,0,0 // movdqa 0x48ca(%rip),%xmm1 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,13,202,72,0,0 // movdqa 0x48ca(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -52760,7 +53253,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,73,72,0,0 // movdqa 0x4849(%rip),%xmm7 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,61,73,72,0,0 // movdqa 0x4849(%rip),%xmm7 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -52820,27 +53313,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 3538d <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 35c4d <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 3548c <_sk_load_8888_sse2_lowp+0x143>
+ .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 35d4c <_sk_load_8888_sse2_lowp+0x143>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 353f3 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 35cb3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 353f3 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 35cb3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 353f3 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 35cb3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -52857,7 +53350,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,51,63,0,0 // movdqa 0x3f33(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,51,63,0,0 // movdqa 0x3f33(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -52914,27 +53407,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 354ec <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 35dac <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 355e8 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 35ea8 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 35552 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 35e12 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 35552 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 35e12 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 35552 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 35e12 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -52951,7 +53444,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,212,61,0,0 // movdqa 0x3dd4(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,212,61,0,0 // movdqa 0x3dd4(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -53019,21 +53512,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 35687 <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 35f47 <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 356d8 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 35f98 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 356d2 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 35f92 <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 356d2 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 35f92 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 356d2 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 35f92 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -53078,27 +53571,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 35738 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 35ff8 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 35834 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 360f4 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3579e <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 3605e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3579e <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 3605e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 3579e <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 3605e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -53115,7 +53608,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,136,59,0,0 // movdqa 0x3b88(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,136,59,0,0 // movdqa 0x3b88(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -53168,27 +53661,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 35894 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 36154 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 35990 <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36250 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 358fa <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 361ba <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 358fa <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 361ba <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 358fa <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 361ba <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -53205,7 +53698,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,44,58,0,0 // movdqa 0x3a2c(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,44,58,0,0 // movdqa 0x3a2c(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -53273,21 +53766,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 35a2f <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 362ef <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 35a80 <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 36340 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 35a7a <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 3633a <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 35a7a <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 3633a <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 35a7a <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 3633a <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -53401,7 +53894,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,72,55,0,0 // movdqa 0x3748(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,72,55,0,0 // movdqa 0x3748(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -53511,7 +54004,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,105,53,0,0 // movdqa 0x3569(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,105,53,0,0 // movdqa 0x3569(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -53552,23 +54045,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 35e96 <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 36756 <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 35f40 <_sk_load_565_sse2_lowp+0xe6>
+ .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 36800 <_sk_load_565_sse2_lowp+0xe6>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 35ed8 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 36798 <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 35ed8 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 36798 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 35ed8 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 36798 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -53576,11 +54069,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,23,60,0,0 // pand 0x3c17(%rip),%xmm3 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,29,23,60,0,0 // pand 0x3c17(%rip),%xmm3 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,22,60,0,0 // pand 0x3c16(%rip),%xmm1 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,15,111,21,30,60,0,0 // movdqa 0x3c1e(%rip),%xmm2 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,15,219,13,22,60,0,0 // pand 0x3c16(%rip),%xmm1 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,111,21,30,60,0,0 // movdqa 0x3c1e(%rip),%xmm2 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -53593,7 +54086,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,20,52,0,0 // movaps 0x3414(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,20,52,0,0 // movaps 0x3414(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 75,255 // rex.WXB (bad)
@@ -53623,23 +54116,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 35f98 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 36858 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 36040 <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 36900 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 35fda <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 3689a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 35fda <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 3689a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 35fda <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 3689a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -53647,11 +54140,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,21,59,0,0 // pand 0x3b15(%rip),%xmm7 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,61,21,59,0,0 // pand 0x3b15(%rip),%xmm7 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,20,59,0,0 // pand 0x3b14(%rip),%xmm5 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,15,111,53,28,59,0,0 // movdqa 0x3b1c(%rip),%xmm6 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,15,219,45,20,59,0,0 // pand 0x3b14(%rip),%xmm5 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,111,53,28,59,0,0 // movdqa 0x3b1c(%rip),%xmm6 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -53664,7 +54157,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,18,51,0,0 // movaps 0x3312(%rip),%xmm7 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,61,18,51,0,0 // movaps 0x3312(%rip),%xmm7 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -53688,10 +54181,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,176,58,0,0 // pand 0x3ab0(%rip),%xmm8 # 39b30 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
+ .byte 102,68,15,219,5,176,58,0,0 // pand 0x3ab0(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,172,58,0,0 // pand 0x3aac(%rip),%xmm9 # 39b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,68,15,219,13,172,58,0,0 // pand 0x3aac(%rip),%xmm9 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -53700,21 +54193,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 360d2 <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 36992 <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 3611c <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 369dc <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 36118 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 369d8 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 36118 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 369d8 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 36118 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 369d8 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -53833,11 +54326,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,193 // punpcklqdq %xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,89,56,0,0 // pand 0x3859(%rip),%xmm3 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,219,29,89,56,0,0 // pand 0x3859(%rip),%xmm3 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,88,56,0,0 // pand 0x3858(%rip),%xmm1 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,15,111,21,96,56,0,0 // movdqa 0x3860(%rip),%xmm2 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,15,219,13,88,56,0,0 // pand 0x3858(%rip),%xmm1 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,111,21,96,56,0,0 // movdqa 0x3860(%rip),%xmm2 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -53850,7 +54343,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,86,48,0,0 // movaps 0x3056(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,86,48,0,0 // movaps 0x3056(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -53871,23 +54364,23 @@ _sk_load_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 36342 <_sk_load_4444_sse2_lowp+0x3e>
+ .byte 119,36 // ja 36c02 <_sk_load_4444_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 363f4 <_sk_load_4444_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 36cb4 <_sk_load_4444_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 36387 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,69 // jmp 36c47 <_sk_load_4444_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 36387 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,61 // jmp 36c47 <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,4,80 // movss (%r8,%rdx,2),%xmm0
.byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 235,35 // jmp 36387 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,35 // jmp 36c47 <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -53897,7 +54390,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,173,55,0,0 // movdqa 0x37ad(%rip),%xmm0 # 39b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,15,111,5,173,55,0,0 // movdqa 0x37ad(%rip),%xmm0 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -53927,7 +54420,7 @@ _sk_load_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 36409 <_sk_load_4444_sse2_lowp+0x105>
+ .byte 125,255 // jge 36cc9 <_sk_load_4444_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -53946,23 +54439,23 @@ _sk_load_4444_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 3644e <_sk_load_4444_dst_sse2_lowp+0x3e>
+ .byte 119,36 // ja 36d0e <_sk_load_4444_dst_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 36500 <_sk_load_4444_dst_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 36dc0 <_sk_load_4444_dst_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 36493 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,69 // jmp 36d53 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 36493 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,61 // jmp 36d53 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,36,80 // movss (%r8,%rdx,2),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 235,35 // jmp 36493 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,35 // jmp 36d53 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -53972,7 +54465,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,161,54,0,0 // movdqa 0x36a1(%rip),%xmm4 # 39b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,15,111,37,161,54,0,0 // movdqa 0x36a1(%rip),%xmm4 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -54002,7 +54495,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 36515 <_sk_load_4444_dst_sse2_lowp+0x105>
+ .byte 125,255 // jge 36dd5 <_sk_load_4444_dst_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -54019,12 +54512,12 @@ _sk_store_4444_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,32,54,0,0 // pand 0x3620(%rip),%xmm8 # 39b60 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
+ .byte 102,68,15,219,5,32,54,0,0 // pand 0x3620(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,28,54,0,0 // pand 0x361c(%rip),%xmm9 # 39b70 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
+ .byte 102,68,15,219,13,28,54,0,0 // pand 0x361c(%rip),%xmm9 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,30,54,0,0 // movdqa 0x361e(%rip),%xmm10 # 39b80 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
+ .byte 102,68,15,111,21,30,54,0,0 // movdqa 0x361e(%rip),%xmm10 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -54034,21 +54527,21 @@ _sk_store_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 365a5 <_sk_store_4444_sse2_lowp+0x89>
+ .byte 119,31 // ja 36e65 <_sk_store_4444_sse2_lowp+0x89>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 365f0 <_sk_store_4444_sse2_lowp+0xd4>
+ .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 36eb0 <_sk_store_4444_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 365eb <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,70 // jmp 36eab <_sk_store_4444_sse2_lowp+0xcf>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 365eb <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,62 // jmp 36eab <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 365eb <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,42 // jmp 36eab <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -54067,7 +54560,7 @@ _sk_store_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,221 // jmpq ffffffffde036604 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
+ .byte 233,255,255,255,221 // jmpq ffffffffde036ec4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,209 // callq *%rcx
@@ -54164,7 +54657,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,198,51,0,0 // movdqa 0x33c6(%rip),%xmm0 # 39b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,15,111,5,198,51,0,0 // movdqa 0x33c6(%rip),%xmm0 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -54202,19 +54695,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3681c <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 370dc <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 36894 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 37154 <_sk_load_a8_sse2_lowp+0xb1>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 3687d <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3713d <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 3687d <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3713d <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -54222,7 +54715,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 3687d <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3713d <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -54233,14 +54726,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,203,42,0,0 // pand 0x2acb(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,29,203,42,0,0 // pand 0x2acb(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 36895 <_sk_load_a8_sse2_lowp+0xb2>
+ .byte 125,255 // jge 37155 <_sk_load_a8_sse2_lowp+0xb2>
.byte 255 // (bad)
.byte 255,163,255,255,255,148 // jmpq *-0x6b000001(%rbx)
.byte 255 // (bad)
@@ -54271,19 +54764,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 368e9 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 371a9 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 36960 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 37220 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 3694a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3720a <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 3694a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3720a <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -54291,7 +54784,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 3694a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3720a <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -54302,14 +54795,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,254,41,0,0 // pand 0x29fe(%rip),%xmm7 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,61,254,41,0,0 // pand 0x29fe(%rip),%xmm7 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 36961 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 37221 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -54339,42 +54832,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 369b0 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 37270 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 36a30 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 372f0 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 36a2b <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,151,41,0,0 // movdqa 0x2997(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 235,123 // jmp 372eb <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,151,41,0,0 // movdqa 0x2997(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 36a2b <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 372eb <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,114,41,0,0 // movdqa 0x2972(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,114,41,0,0 // movdqa 0x2972(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 36a2b <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 372eb <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,53,41,0,0 // movdqa 0x2935(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,53,41,0,0 // movdqa 0x2935(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 36a31 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 372f1 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -54499,19 +54992,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 36bed <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 374ad <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 36c6c <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3752c <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 36c4e <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3750e <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 36c4e <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3750e <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -54519,7 +55012,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 36c4e <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3750e <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -54530,14 +55023,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,250,38,0,0 // pand 0x26fa(%rip),%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,5,250,38,0,0 // pand 0x26fa(%rip),%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,241,38,0,0 // movaps 0x26f1(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,241,38,0,0 // movaps 0x26f1(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 36c6d <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 3752d <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -54565,19 +55058,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 36cc1 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 37581 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 36d40 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 37600 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 36d22 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 375e2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 36d22 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 375e2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -54585,7 +55078,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 36d22 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 375e2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -54596,14 +55089,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,38,38,0,0 // pand 0x2626(%rip),%xmm4 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,219,37,38,38,0,0 // pand 0x2626(%rip),%xmm4 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,29,38,0,0 // movaps 0x261d(%rip),%xmm7 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,61,29,38,0,0 // movaps 0x261d(%rip),%xmm7 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 36d41 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 37601 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -54624,10 +55117,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,40,46,0,0 // pmullw 0x2e28(%rip),%xmm0 # 39b90 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- .byte 102,15,213,13,48,46,0,0 // pmullw 0x2e30(%rip),%xmm1 # 39ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
+ .byte 102,15,213,5,40,46,0,0 // pmullw 0x2e28(%rip),%xmm0 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
+ .byte 102,15,213,13,48,46,0,0 // pmullw 0x2e30(%rip),%xmm1 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,52,46,0,0 // pmullw 0x2e34(%rip),%xmm3 # 39bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
+ .byte 102,15,213,29,52,46,0,0 // pmullw 0x2e34(%rip),%xmm3 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -54720,7 +55213,7 @@ _sk_gather_g8_sse2_lowp:
.byte 102,15,196,197,3 // pinsrw $0x3,%ebp,%xmm0
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,98,36,0,0 // movaps 0x2462(%rip),%xmm3 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 15,40,29,98,36,0,0 // movaps 0x2462(%rip),%xmm3 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -54736,14 +55229,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,19,36,0,0 // movdqa 0x2413(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,19,36,0,0 // movdqa 0x2413(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -54764,13 +55257,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 38a94 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 38a64 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 39354 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 39324 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,160,35,0,0 // movdqa 0x23a0(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,160,35,0,0 // movdqa 0x23a0(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -54810,19 +55303,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37067 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 37927 <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 3712c <_sk_scale_u8_sse2_lowp+0x100>
+ .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 379ec <_sk_scale_u8_sse2_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 370d4 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 37994 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 370d4 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 37994 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -54830,7 +55323,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 370d4 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 37994 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -54841,9 +55334,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,115,34,0,0 // pand 0x2273(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,219,5,115,34,0,0 // pand 0x2273(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,101,34,0,0 // movdqa 0x2265(%rip),%xmm9 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,13,101,34,0,0 // movdqa 0x2265(%rip),%xmm9 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -54885,19 +55378,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37183 <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 37a43 <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 3728c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 37b4c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 371f0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 37ab0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 371f0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 37ab0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -54905,7 +55398,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 371f0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 37ab0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -54916,8 +55409,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,87,33,0,0 // pand 0x2157(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
- .byte 102,68,15,111,21,78,33,0,0 // movdqa 0x214e(%rip),%xmm10 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,219,5,87,33,0,0 // pand 0x2157(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,21,78,33,0,0 // movdqa 0x214e(%rip),%xmm10 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -54947,9 +55440,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 3728c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 37b4c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5037294 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5037b54 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -54979,23 +55472,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 372f3 <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 37bb3 <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 374c4 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 37d84 <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 37336 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 37bf6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 37336 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 37bf6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 37336 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 37bf6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -55003,11 +55496,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,182,39,0,0 // pand 0x27b6(%rip),%xmm11 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,219,29,182,39,0,0 // pand 0x27b6(%rip),%xmm11 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,178,39,0,0 // pand 0x27b2(%rip),%xmm9 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,68,15,111,21,185,39,0,0 // movdqa 0x27b9(%rip),%xmm10 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,68,15,219,13,178,39,0,0 // pand 0x27b2(%rip),%xmm9 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,111,21,185,39,0,0 // movdqa 0x27b9(%rip),%xmm10 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -55019,7 +55512,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,21,39,0,0 // movdqa 0x2715(%rip),%xmm12 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,37,21,39,0,0 // movdqa 0x2715(%rip),%xmm12 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -55060,7 +55553,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,215,30,0,0 // movdqa 0x1ed7(%rip),%xmm0 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,15,111,5,215,30,0,0 // movdqa 0x1ed7(%rip),%xmm0 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -55107,23 +55600,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3752b <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 37deb <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 37744 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 38004 <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 3756e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 37e2e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 3756e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 37e2e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 3756e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 37e2e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -55131,11 +55624,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,126,37,0,0 // pand 0x257e(%rip),%xmm11 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,219,29,126,37,0,0 // pand 0x257e(%rip),%xmm11 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,122,37,0,0 // pand 0x257a(%rip),%xmm9 # 39b10 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- .byte 102,68,15,111,21,129,37,0,0 // movdqa 0x2581(%rip),%xmm10 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,68,15,219,13,122,37,0,0 // pand 0x257a(%rip),%xmm9 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,111,21,129,37,0,0 // movdqa 0x2581(%rip),%xmm10 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -55147,7 +55640,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,221,36,0,0 // movdqa 0x24dd(%rip),%xmm12 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,37,221,36,0,0 // movdqa 0x24dd(%rip),%xmm12 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -55186,7 +55679,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,169,28,0,0 // movdqa 0x1ca9(%rip),%xmm8 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,5,169,28,0,0 // movdqa 0x1ca9(%rip),%xmm8 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -55248,7 +55741,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,60,28,0,0 // movaps 0x1c3c(%rip),%xmm8 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,5,60,28,0,0 // movaps 0x1c3c(%rip),%xmm8 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -55266,7 +55759,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 69,15,194,208,1 // cmpltps %xmm8,%xmm10
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 68,15,40,37,4,28,0,0 // movaps 0x1c04(%rip),%xmm12 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,37,4,28,0,0 // movaps 0x1c04(%rip),%xmm12 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,237 // xorps %xmm13,%xmm13
@@ -55285,10 +55778,10 @@ HIDDEN _sk_mirror_x_1_sse2_lowp
.globl _sk_mirror_x_1_sse2_lowp
FUNCTION(_sk_mirror_x_1_sse2_lowp)
_sk_mirror_x_1_sse2_lowp:
- .byte 68,15,40,5,44,28,0,0 // movaps 0x1c2c(%rip),%xmm8 # 39410 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,5,44,28,0,0 // movaps 0x1c2c(%rip),%xmm8 # 39cd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,172,27,0,0 // movaps 0x1bac(%rip),%xmm10 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,172,27,0,0 // movaps 0x1bac(%rip),%xmm10 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 68,15,89,208 // mulps %xmm0,%xmm10
@@ -55298,7 +55791,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 69,15,91,233 // cvtdq2ps %xmm9,%xmm13
.byte 69,15,194,213,1 // cmpltps %xmm13,%xmm10
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,40,13,140,27,0,0 // movaps 0x1b8c(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,140,27,0,0 // movaps 0x1b8c(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,84,217 // andps %xmm9,%xmm11
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,87,246 // xorps %xmm14,%xmm14
@@ -55310,7 +55803,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,120,32,0,0 // movaps 0x2078(%rip),%xmm8 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 68,15,40,5,120,32,0,0 // movaps 0x2078(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 65,15,95,206 // maxps %xmm14,%xmm1
@@ -55339,7 +55832,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 73,131,248,2 // cmp $0x2,%r8
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,56 // jb 378e0 <_sk_gradient_sse2_lowp+0x6c>
+ .byte 114,56 // jb 381a0 <_sk_gradient_sse2_lowp+0x6c>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
@@ -55354,7 +55847,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,220 // psubd %xmm4,%xmm3
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,219 // jne 378bb <_sk_gradient_sse2_lowp+0x47>
+ .byte 117,219 // jne 3817b <_sk_gradient_sse2_lowp+0x47>
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
.byte 69,137,200 // mov %r9d,%r8d
@@ -55497,10 +55990,10 @@ _sk_gradient_sse2_lowp:
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 69,15,89,207 // mulps %xmm15,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,53,243,24,0,0 // movaps 0x18f3(%rip),%xmm6 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 15,40,53,243,24,0,0 // movaps 0x18f3(%rip),%xmm6 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 15,89,222 // mulps %xmm6,%xmm3
.byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 15,40,37,245,23,0,0 // movaps 0x17f5(%rip),%xmm4 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,37,245,23,0,0 // movaps 0x17f5(%rip),%xmm4 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,88,204 // addps %xmm4,%xmm9
.byte 15,88,220 // addps %xmm4,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -55596,9 +56089,9 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 37d24 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
+ .byte 120,7 // js 385e4 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 37d39 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
+ .byte 235,21 // jmp 385f9 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -55753,10 +56246,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,68,36,176 // movaps -0x50(%rsp),%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
.byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,40,13,127,20,0,0 // movaps 0x147f(%rip),%xmm1 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 15,40,13,127,20,0,0 // movaps 0x147f(%rip),%xmm1 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 15,40,13,129,19,0,0 // movaps 0x1381(%rip),%xmm1 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,13,129,19,0,0 // movaps 0x1381(%rip),%xmm1 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,88,193 // addps %xmm1,%xmm8
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -55773,7 +56266,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,5,35,20,0,0 // movaps 0x1423(%rip),%xmm0 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 15,40,5,35,20,0,0 // movaps 0x1423(%rip),%xmm0 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
@@ -55852,10 +56345,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,232,18,0,0 // movaps 0x12e8(%rip),%xmm10 # 39490 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,21,232,18,0,0 // movaps 0x12e8(%rip),%xmm10 # 39d50 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,29,232,17,0,0 // movaps 0x11e8(%rip),%xmm11 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,29,232,17,0,0 // movaps 0x11e8(%rip),%xmm11 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,88,219 // addps %xmm11,%xmm3
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
@@ -55948,7 +56441,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 68,15,40,37,156,21,0,0 // movaps 0x159c(%rip),%xmm12 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 68,15,40,37,156,21,0,0 // movaps 0x159c(%rip),%xmm12 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,40,217 // movaps %xmm1,%xmm11
@@ -55982,26 +56475,26 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,89,246 // mulps %xmm14,%xmm14
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,127,21,0,0 // movaps 0x157f(%rip),%xmm12 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,40,37,127,21,0,0 // movaps 0x157f(%rip),%xmm12 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,123,21,0,0 // movaps 0x157b(%rip),%xmm15 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,40,61,123,21,0,0 // movaps 0x157b(%rip),%xmm15 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,115,21,0,0 // movaps 0x1573(%rip),%xmm15 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 68,15,40,61,115,21,0,0 // movaps 0x1573(%rip),%xmm15 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 15,40,5,108,21,0,0 // movaps 0x156c(%rip),%xmm0 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 15,40,5,108,21,0,0 // movaps 0x156c(%rip),%xmm0 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 68,15,88,232 // addps %xmm0,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 15,40,5,101,21,0,0 // movaps 0x1565(%rip),%xmm0 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 15,40,5,101,21,0,0 // movaps 0x1565(%rip),%xmm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 65,15,84,194 // andps %xmm10,%xmm0
@@ -56013,7 +56506,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,86,200 // orps %xmm8,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,194,200,1 // cmpltps %xmm8,%xmm1
- .byte 15,40,5,81,15,0,0 // movaps 0xf51(%rip),%xmm0 # 393a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,5,81,15,0,0 // movaps 0xf51(%rip),%xmm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
@@ -56026,7 +56519,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 65,15,86,211 // orps %xmm11,%xmm2
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11
- .byte 68,15,40,13,41,15,0,0 // movaps 0xf29(%rip),%xmm9 # 393b0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 68,15,40,13,41,15,0,0 // movaps 0xf29(%rip),%xmm9 # 39c70 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -56084,26 +56577,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 38557 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 38e17 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 38780 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 39040 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 385bd <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 38e7d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 385bd <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 38e7d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 385bd <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 38e7d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -56120,7 +56613,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,105,13,0,0 // movdqa 0xd69(%rip),%xmm12 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,37,105,13,0,0 // movdqa 0xd69(%rip),%xmm12 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -56178,20 +56671,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3871f <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3879c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 38fdf <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3905c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 38768 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 39028 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 38768 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 39028 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 38768 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 39028 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -56224,7 +56717,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3879d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3905d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -56256,26 +56749,26 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 38803 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 390c3 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 38a2c <_sk_srcover_bgra_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 392ec <_sk_srcover_bgra_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 38869 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 39129 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 38869 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 39129 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 38869 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 39129 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -56292,7 +56785,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,189,10,0,0 // movdqa 0xabd(%rip),%xmm12 # 39350 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,111,37,189,10,0,0 // movdqa 0xabd(%rip),%xmm12 # 39c10 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -56350,20 +56843,20 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 389cb <_sk_srcover_bgra_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 38a48 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3928b <_sk_srcover_bgra_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 39308 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 38a14 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 392d4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 38a14 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 392d4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 38a14 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 392d4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -56396,7 +56889,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 38a49 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 39309 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -56429,14 +56922,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 38ac8 <.literal4+0x64>
+ .byte 224,64 // loopne 39388 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 38ad1 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 39391 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 38adb <.literal4+0x77>
+ .byte 127,67 // jg 3939b <.literal4+0x77>
.byte 0,0 // add %al,(%rax)
.byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
.byte 158 // sahf
@@ -56473,7 +56966,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 38af5 <.literal4+0x91>
+ .byte 224,7 // loopne 393b5 <.literal4+0x91>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -56484,8 +56977,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 38b08 <.literal4+0xa4>
- .byte 119,115 // ja 38b7d <.literal4+0x119>
+ .byte 127,0 // jg 393c8 <.literal4+0xa4>
+ .byte 119,115 // ja 3943d <.literal4+0x119>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -56508,12 +57001,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 38b93 <.literal4+0x12f>
+ .byte 118,63 // jbe 39453 <.literal4+0x12f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 38ba2 <.literal4+0x13e>
+ .byte 124,66 // jl 39462 <.literal4+0x13e>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -56523,9 +57016,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 38bc5 <.literal4+0x161>
+ .byte 112,65 // jo 39485 <.literal4+0x161>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 38bcf <.literal4+0x16b>
+ .byte 127,71 // jg 3948f <.literal4+0x16b>
.byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
@@ -56546,18 +57039,18 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 38bda <.literal4+0x176>
+ .byte 114,28 // jb 3949a <.literal4+0x176>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,0,0,192,63 // mov $0x3fc00000,%edi
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 38c0f <_sk_srcover_bgra_8888_sse2_lowp+0x457>
+ .byte 127,63 // jg 394cf <_sk_srcover_bgra_8888_sse2_lowp+0x457>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 38c14 <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
+ .byte 120,57 // js 394d4 <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
.byte 64,32,148,90,62,4,157,30 // and %dl,0x1e9d043e(%rdx,%rbx,2)
.byte 62,0,24 // add %bl,%ds:(%rax)
.byte 161,57,109,165,144,63,252,191,16 // movabs 0x10bffc3f90a56d39,%eax
@@ -56567,7 +57060,7 @@ BALIGN4
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 38bfd <.literal4+0x199>
+ .byte 127,0 // jg 394bd <.literal4+0x199>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -56619,16 +57112,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038c88 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004d0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039548 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038c90 <_sk_srcover_bgra_8888_sse2_lowp+0x120004d8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039550 <_sk_srcover_bgra_8888_sse2_lowp+0x120004d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038c98 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004e0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039558 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004e0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038ca0 <_sk_srcover_bgra_8888_sse2_lowp+0x30004e8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039560 <_sk_srcover_bgra_8888_sse2_lowp+0x30004e8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -56671,16 +57164,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038ce8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000530>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0395a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000530>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038cf0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000538>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120395b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000538>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038cf8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000540>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0395b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000540>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038d00 <_sk_srcover_bgra_8888_sse2_lowp+0x3000548>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30395c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000548>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -56723,16 +57216,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038d48 <_sk_srcover_bgra_8888_sse2_lowp+0xa000590>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039608 <_sk_srcover_bgra_8888_sse2_lowp+0xa000590>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038d50 <_sk_srcover_bgra_8888_sse2_lowp+0x12000598>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039610 <_sk_srcover_bgra_8888_sse2_lowp+0x12000598>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038d58 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005a0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039618 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005a0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038d60 <_sk_srcover_bgra_8888_sse2_lowp+0x30005a8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039620 <_sk_srcover_bgra_8888_sse2_lowp+0x30005a8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -56775,16 +57268,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038da8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005f0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039668 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005f0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038db0 <_sk_srcover_bgra_8888_sse2_lowp+0x120005f8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039670 <_sk_srcover_bgra_8888_sse2_lowp+0x120005f8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038db8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000600>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039678 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000600>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038dc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000608>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039680 <_sk_srcover_bgra_8888_sse2_lowp+0x3000608>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -56827,16 +57320,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038e08 <_sk_srcover_bgra_8888_sse2_lowp+0xa000650>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0396c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000650>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038e10 <_sk_srcover_bgra_8888_sse2_lowp+0x12000658>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120396d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000658>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038e18 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000660>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0396d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000660>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038e20 <_sk_srcover_bgra_8888_sse2_lowp+0x3000668>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30396e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000668>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -56879,16 +57372,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038e68 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006b0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039728 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006b0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038e70 <_sk_srcover_bgra_8888_sse2_lowp+0x120006b8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039730 <_sk_srcover_bgra_8888_sse2_lowp+0x120006b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038e78 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006c0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039738 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006c0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038e80 <_sk_srcover_bgra_8888_sse2_lowp+0x30006c8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039740 <_sk_srcover_bgra_8888_sse2_lowp+0x30006c8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -56931,16 +57424,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038ec8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000710>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039788 <_sk_srcover_bgra_8888_sse2_lowp+0xa000710>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038ed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000718>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039790 <_sk_srcover_bgra_8888_sse2_lowp+0x12000718>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038ed8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000720>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039798 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000720>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038ee0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000728>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30397a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000728>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -56983,16 +57476,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038f28 <_sk_srcover_bgra_8888_sse2_lowp+0xa000770>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0397e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000770>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038f30 <_sk_srcover_bgra_8888_sse2_lowp+0x12000778>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120397f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000778>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038f38 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000780>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0397f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000780>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038f40 <_sk_srcover_bgra_8888_sse2_lowp+0x3000788>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039800 <_sk_srcover_bgra_8888_sse2_lowp+0x3000788>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57035,16 +57528,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a038f88 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007d0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039848 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12038f90 <_sk_srcover_bgra_8888_sse2_lowp+0x120007d8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039850 <_sk_srcover_bgra_8888_sse2_lowp+0x120007d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a038f98 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007e0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039858 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007e0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3038fa0 <_sk_srcover_bgra_8888_sse2_lowp+0x30007e8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039860 <_sk_srcover_bgra_8888_sse2_lowp+0x30007e8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57349,7 +57842,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 391f3 <.const+0x5d3>
+ .byte 224,255 // loopne 39ab3 <.const+0x5d3>
.byte 248 // clc
.byte 0,63 // add %bh,(%rdi)
.byte 0,31 // add %bl,(%rdi)
@@ -57610,11 +58103,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 39468 <.literal16+0x118>
+ .byte 224,64 // loopne 39d28 <.literal16+0x118>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3946c <.literal16+0x11c>
+ .byte 224,64 // loopne 39d2c <.literal16+0x11c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 39470 <.literal16+0x120>
+ .byte 224,64 // loopne 39d30 <.literal16+0x120>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -57634,13 +58127,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 39491 <.literal16+0x141>
+ .byte 71,225,61 // rex.RXB loope 39d51 <.literal16+0x141>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 39495 <.literal16+0x145>
+ .byte 71,225,61 // rex.RXB loope 39d55 <.literal16+0x145>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 39499 <.literal16+0x149>
+ .byte 71,225,61 // rex.RXB loope 39d59 <.literal16+0x149>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3949d <.literal16+0x14d>
+ .byte 71,225,61 // rex.RXB loope 39d5d <.literal16+0x14d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -57651,10 +58144,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039478 <_sk_srcover_bgra_8888_sse2_lowp+0xa000cc0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039d38 <_sk_srcover_bgra_8888_sse2_lowp+0xa000cc0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3039480 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cc8>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3039d40 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cc8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57669,11 +58162,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 394db <.literal16+0x18b>
+ .byte 127,67 // jg 39d9b <.literal16+0x18b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 394df <.literal16+0x18f>
+ .byte 127,67 // jg 39d9f <.literal16+0x18f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 394e3 <.literal16+0x193>
+ .byte 127,67 // jg 39da3 <.literal16+0x193>
.byte 0,0 // add %al,(%rax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
@@ -57829,13 +58322,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 395f9 <.literal16+0x2a9>
+ .byte 224,7 // loopne 39eb9 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 395fd <.literal16+0x2ad>
+ .byte 224,7 // loopne 39ebd <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 39601 <.literal16+0x2b1>
+ .byte 224,7 // loopne 39ec1 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 39605 <.literal16+0x2b5>
+ .byte 224,7 // loopne 39ec5 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -57889,17 +58382,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 39674 <.literal16+0x324>
+ .byte 127,0 // jg 39f34 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 39678 <.literal16+0x328>
+ .byte 127,0 // jg 39f38 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3967c <.literal16+0x32c>
+ .byte 127,0 // jg 39f3c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 39680 <.literal16+0x330>
- .byte 119,115 // ja 396f5 <.literal16+0x3a5>
+ .byte 127,0 // jg 39f40 <.literal16+0x330>
+ .byte 119,115 // ja 39fb5 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -57910,7 +58403,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 39659 <.literal16+0x309>
+ .byte 117,191 // jne 39f19 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -57922,7 +58415,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a6d69a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ee2>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a6df5a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ee2>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -58012,16 +58505,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 397e3 <.literal16+0x493>
+ .byte 118,63 // jbe 3a0a3 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 397e7 <.literal16+0x497>
+ .byte 118,63 // jbe 3a0a7 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 397eb <.literal16+0x49b>
+ .byte 118,63 // jbe 3a0ab <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 397ef <.literal16+0x49f>
+ .byte 118,63 // jbe 3a0af <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -58042,13 +58535,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 39826 <.literal16+0x4d6>
+ .byte 124,66 // jl 3a0e6 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3982a <.literal16+0x4da>
+ .byte 124,66 // jl 3a0ea <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3982e <.literal16+0x4de>
+ .byte 124,66 // jl 3a0ee <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 39832 <.literal16+0x4e2>
+ .byte 124,66 // jl 3a0f2 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -58094,25 +58587,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 398b5 <.literal16+0x565>
+ .byte 112,65 // jo 3a175 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 398b9 <.literal16+0x569>
+ .byte 112,65 // jo 3a179 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 398bd <.literal16+0x56d>
+ .byte 112,65 // jo 3a17d <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 398c1 <.literal16+0x571>
+ .byte 112,65 // jo 3a181 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 39893 <.literal16+0x543>
+ .byte 127,0 // jg 3a153 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 39897 <.literal16+0x547>
+ .byte 127,0 // jg 3a157 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3989b <.literal16+0x54b>
+ .byte 127,0 // jg 3a15b <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3989f <.literal16+0x54f>
+ .byte 127,0 // jg 3a15f <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -58138,13 +58631,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 398d8 <.literal16+0x588>
+ .byte 127,255 // jg 3a198 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 398dc <.literal16+0x58c>
+ .byte 127,255 // jg 3a19c <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 398e1 <.literal16+0x591>
+ .byte 127,0 // jg 3a1a1 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -58158,13 +58651,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3994b <.literal16+0x5fb>
+ .byte 127,71 // jg 3a20b <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3994f <.literal16+0x5ff>
+ .byte 127,71 // jg 3a20f <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 39953 <.literal16+0x603>
+ .byte 127,71 // jg 3a213 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 39957 <.literal16+0x607>
+ .byte 127,71 // jg 3a217 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -58241,13 +58734,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 399ee <.literal16+0x69e>
+ .byte 114,28 // jb 3a2ae <.literal16+0x69e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 399f2 <.literal16+0x6a2>
+ .byte 62,114,28 // jb,pt 3a2b2 <.literal16+0x6a2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 399f6 <.literal16+0x6a6>
+ .byte 62,114,28 // jb,pt 3a2b6 <.literal16+0x6a6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 399fa <.literal16+0x6aa>
+ .byte 62,114,28 // jb,pt 3a2ba <.literal16+0x6aa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -58266,15 +58759,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d672845 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a08d>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d673105 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a08d>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 39a53 <.literal16+0x703>
- .byte 114,249 // jb 39a0f <.literal16+0x6bf>
- .byte 127,63 // jg 39a57 <.literal16+0x707>
- .byte 114,249 // jb 39a13 <.literal16+0x6c3>
- .byte 127,63 // jg 39a5b <.literal16+0x70b>
- .byte 114,249 // jb 39a17 <.literal16+0x6c7>
- .byte 127,63 // jg 39a5f <.literal16+0x70f>
+ .byte 127,63 // jg 3a313 <.literal16+0x703>
+ .byte 114,249 // jb 3a2cf <.literal16+0x6bf>
+ .byte 127,63 // jg 3a317 <.literal16+0x707>
+ .byte 114,249 // jb 3a2d3 <.literal16+0x6c3>
+ .byte 127,63 // jg 3a31b <.literal16+0x70b>
+ .byte 114,249 // jb 3a2d7 <.literal16+0x6c7>
+ .byte 127,63 // jg 3a31f <.literal16+0x70f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -58298,9 +58791,9 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3ab55 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0239d>
+ .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3b415 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0239d>
.byte 16,17 // adc %dl,(%rcx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3ab5e <_sk_srcover_bgra_8888_sse2_lowp+0x2dc023a6>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3b41e <_sk_srcover_bgra_8888_sse2_lowp+0x2dc023a6>
.byte 17,192 // adc %eax,%eax
.byte 18,120,57 // adc 0x39(%rax),%bh
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -58404,14 +58897,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 39b41 <.literal16+0x7f1>
- .byte 224,255 // loopne 39b43 <.literal16+0x7f3>
- .byte 224,255 // loopne 39b45 <.literal16+0x7f5>
- .byte 224,255 // loopne 39b47 <.literal16+0x7f7>
- .byte 224,255 // loopne 39b49 <.literal16+0x7f9>
- .byte 224,255 // loopne 39b4b <.literal16+0x7fb>
- .byte 224,255 // loopne 39b4d <.literal16+0x7fd>
- .byte 224,255 // loopne 39b4f <.literal16+0x7ff>
+ .byte 224,255 // loopne 3a401 <.literal16+0x7f1>
+ .byte 224,255 // loopne 3a403 <.literal16+0x7f3>
+ .byte 224,255 // loopne 3a405 <.literal16+0x7f5>
+ .byte 224,255 // loopne 3a407 <.literal16+0x7f7>
+ .byte 224,255 // loopne 3a409 <.literal16+0x7f9>
+ .byte 224,255 // loopne 3a40b <.literal16+0x7fb>
+ .byte 224,255 // loopne 3a40d <.literal16+0x7fd>
+ .byte 224,255 // loopne 3a40f <.literal16+0x7ff>
.byte 15,0,15 // str (%rdi)
.byte 0,15 // add %cl,(%rdi)
.byte 0,15 // add %cl,(%rdi)
@@ -58484,9 +58977,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 39beb <.literal8+0x1b>
+ .byte 127,0 // jg 3a4ab <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 39bef <.literal8+0x1f>
+ .byte 127,0 // jg 3a4af <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -58598,7 +59091,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,135,245,0,0 // addps 0xf587(%eax),%xmm1
+ .byte 15,88,136,199,247,0,0 // addps 0xf7c7(%eax),%xmm1
.byte 141,114,8 // lea 0x8(%edx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,81,64 // movaps %xmm2,0x40(%ecx)
@@ -58606,7 +59099,7 @@ _sk_seed_shader_sse2:
.byte 15,41,81,32 // movaps %xmm2,0x20(%ecx)
.byte 15,41,81,16 // movaps %xmm2,0x10(%ecx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,151,245,0,0 // movaps 0xf597(%eax),%xmm2
+ .byte 15,40,144,215,247,0,0 // movaps 0xf7d7(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
@@ -58633,15 +59126,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,48,245,0,0 // paddd 0xf530(%ecx),%xmm4
+ .byte 102,15,254,161,112,247,0,0 // paddd 0xf770(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,64,245,0,0 // movdqa 0xf540(%ecx),%xmm6
+ .byte 102,15,111,177,128,247,0,0 // movdqa 0xf780(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,96,245,0,0 // movdqa 0xf560(%ecx),%xmm0
+ .byte 102,15,111,129,160,247,0,0 // movdqa 0xf7a0(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -58651,7 +59144,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,80,245,0,0 // movdqa 0xf550(%ecx),%xmm1
+ .byte 102,15,111,137,144,247,0,0 // movdqa 0xf790(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -58662,8 +59155,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,112,245,0,0 // mulps 0xf570(%ecx),%xmm0
- .byte 15,88,129,128,245,0,0 // addps 0xf580(%ecx),%xmm0
+ .byte 15,89,129,176,247,0,0 // mulps 0xf7b0(%ecx),%xmm0
+ .byte 15,88,129,192,247,0,0 // addps 0xf7c0(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -58731,7 +59224,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,228,243,0,0 // movaps 0xf3e4(%eax),%xmm3
+ .byte 15,40,152,36,246,0,0 // movaps 0xf624(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -58754,7 +59247,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,180,243,0,0 // movaps 0xf3b4(%eax),%xmm0
+ .byte 15,40,128,244,245,0,0 // movaps 0xf5f4(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -58844,7 +59337,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,5,243,0,0 // movaps 0xf305(%edx),%xmm5
+ .byte 15,40,170,69,245,0,0 // movaps 0xf545(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -58883,7 +59376,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,166,242,0,0 // movaps 0xf2a6(%edx),%xmm4
+ .byte 15,40,162,230,244,0,0 // movaps 0xf4e6(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -58967,7 +59460,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,229,241,0,0 // movaps 0xf1e5(%eax),%xmm4
+ .byte 15,40,160,37,244,0,0 // movaps 0xf425(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -58993,7 +59486,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,173,241,0,0 // movaps 0xf1ad(%eax),%xmm4
+ .byte 15,40,160,237,243,0,0 // movaps 0xf3ed(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -59023,7 +59516,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,102,241,0,0 // movaps 0xf166(%eax),%xmm4
+ .byte 15,40,160,166,243,0,0 // movaps 0xf3a6(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -59057,7 +59550,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,22,241,0,0 // movaps 0xf116(%eax),%xmm4
+ .byte 15,40,160,86,243,0,0 // movaps 0xf356(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -59113,7 +59606,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,151,240,0,0 // movaps 0xf097(%ecx),%xmm0
+ .byte 15,40,129,215,242,0,0 // movaps 0xf2d7(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -59173,7 +59666,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,241,239,0,0 // movaps 0xeff1(%eax),%xmm4
+ .byte 15,40,160,49,242,0,0 // movaps 0xf231(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -59245,7 +59738,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,67,239,0,0 // movaps 0xef43(%edx),%xmm3
+ .byte 15,40,154,131,241,0,0 // movaps 0xf183(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -59307,7 +59800,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,219,238,0,0 // movaps 0xeedb(%edx),%xmm1
+ .byte 15,40,138,27,241,0,0 // movaps 0xf11b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -59356,7 +59849,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,91,238,0,0 // movaps 0xee5b(%edx),%xmm1
+ .byte 15,40,138,155,240,0,0 // movaps 0xf09b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -59409,7 +59902,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,216,237,0,0 // movaps 0xedd8(%edx),%xmm2
+ .byte 15,40,146,24,240,0,0 // movaps 0xf018(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -59453,7 +59946,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,82,237,0,0 // movaps 0xed52(%edx),%xmm1
+ .byte 15,40,138,146,239,0,0 // movaps 0xef92(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -59494,7 +59987,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,211,236,0,0 // movaps 0xecd3(%ecx),%xmm6
+ .byte 15,40,177,19,239,0,0 // movaps 0xef13(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -59611,7 +60104,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,74,235,0,0 // movaps 0xeb4a(%ecx),%xmm2
+ .byte 15,40,145,138,237,0,0 // movaps 0xed8a(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -59728,7 +60221,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,233,233,0,0 // movaps 0xe9e9(%ecx),%xmm2
+ .byte 15,40,145,41,236,0,0 // movaps 0xec29(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -59838,7 +60331,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,158,232,0,0 // movaps 0xe89e(%ecx),%xmm4
+ .byte 15,40,161,222,234,0,0 // movaps 0xeade(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -59966,17 +60459,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,126,231,0,0 // movaps 0xe77e(%ecx),%xmm1
+ .byte 15,40,137,190,233,0,0 // movaps 0xe9be(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,14,231,0,0 // movaps 0xe70e(%ecx),%xmm7
+ .byte 15,40,185,78,233,0,0 // movaps 0xe94e(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,142,231,0,0 // movaps 0xe78e(%ecx),%xmm4
+ .byte 15,40,161,206,233,0,0 // movaps 0xe9ce(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -60182,7 +60675,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,77,228,0,0 // movaps 0xe44d(%ecx),%xmm5
+ .byte 15,40,169,141,230,0,0 // movaps 0xe68d(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -60215,17 +60708,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,221,228,0,0 // movaps 0xe4dd(%ecx),%xmm3
+ .byte 15,40,153,29,231,0,0 // movaps 0xe71d(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,237,228,0,0 // movaps 0xe4ed(%ecx),%xmm3
+ .byte 15,40,153,45,231,0,0 // movaps 0xe72d(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,77,228,0,0 // movaps 0xe44d(%ecx),%xmm1
+ .byte 15,40,137,141,230,0,0 // movaps 0xe68d(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -60235,7 +60728,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,253,228,0,0 // movaps 0xe4fd(%ecx),%xmm5
+ .byte 15,40,169,61,231,0,0 // movaps 0xe73d(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -60428,17 +60921,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,137,225,0,0 // movaps 0xe189(%ecx),%xmm3
+ .byte 15,40,153,201,227,0,0 // movaps 0xe3c9(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,153,225,0,0 // movaps 0xe199(%ecx),%xmm3
+ .byte 15,40,153,217,227,0,0 // movaps 0xe3d9(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,249,224,0,0 // movaps 0xe0f9(%ecx),%xmm0
+ .byte 15,40,129,57,227,0,0 // movaps 0xe339(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -60450,7 +60943,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,169,225,0,0 // movaps 0xe1a9(%ecx),%xmm0
+ .byte 15,40,129,233,227,0,0 // movaps 0xe3e9(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -60609,16 +61102,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,46,223,0,0 // movaps 0xdf2e(%ecx),%xmm6
+ .byte 15,40,177,110,225,0,0 // movaps 0xe16e(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,62,223,0,0 // movaps 0xdf3e(%ecx),%xmm3
+ .byte 15,40,153,126,225,0,0 // movaps 0xe17e(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,158,222,0,0 // movaps 0xde9e(%ecx),%xmm0
+ .byte 15,40,129,222,224,0,0 // movaps 0xe0de(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -60628,7 +61121,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,78,223,0,0 // movaps 0xdf4e(%ecx),%xmm1
+ .byte 15,40,137,142,225,0,0 // movaps 0xe18e(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -60787,18 +61280,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,203,220,0,0 // movaps 0xdccb(%ecx),%xmm4
+ .byte 15,40,161,11,223,0,0 // movaps 0xdf0b(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,219,220,0,0 // movaps 0xdcdb(%ecx),%xmm4
+ .byte 15,40,161,27,223,0,0 // movaps 0xdf1b(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,59,220,0,0 // movaps 0xdc3b(%ecx),%xmm4
+ .byte 15,40,161,123,222,0,0 // movaps 0xde7b(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -60808,7 +61301,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,235,220,0,0 // movaps 0xdceb(%ecx),%xmm1
+ .byte 15,40,137,43,223,0,0 // movaps 0xdf2b(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -60984,7 +61477,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,224,0,0,0 // jne 1d92 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
- .byte 102,15,111,167,144,218,0,0 // movdqa 0xda90(%edi),%xmm4
+ .byte 102,15,111,167,208,220,0,0 // movdqa 0xdcd0(%edi),%xmm4
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 102,15,111,242 // movdqa %xmm2,%xmm6
@@ -60995,9 +61488,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,175,208,217,0,0 // movaps 0xd9d0(%edi),%xmm5
+ .byte 15,40,175,16,220,0,0 // movaps 0xdc10(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,143,160,218,0,0 // movaps 0xdaa0(%edi),%xmm1
+ .byte 15,40,143,224,220,0,0 // movaps 0xdce0(%edi),%xmm1
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
@@ -61105,7 +61598,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,221,0,0,0 // jne 1f1e <_sk_srcover_bgra_8888_sse2+0x116>
.byte 243,15,111,36,178 // movdqu (%edx,%esi,4),%xmm4
- .byte 102,15,111,151,1,217,0,0 // movdqa 0xd901(%edi),%xmm2
+ .byte 102,15,111,151,65,219,0,0 // movdqa 0xdb41(%edi),%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,219,234 // pand %xmm2,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -61120,9 +61613,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
- .byte 15,40,191,65,216,0,0 // movaps 0xd841(%edi),%xmm7
+ .byte 15,40,191,129,218,0,0 // movaps 0xda81(%edi),%xmm7
.byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,40,143,17,217,0,0 // movaps 0xd911(%edi),%xmm1
+ .byte 15,40,143,81,219,0,0 // movaps 0xdb51(%edi),%xmm1
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
@@ -61231,7 +61724,7 @@ _sk_clamp_1_sse2:
.byte 232,0,0,0,0 // call 1fc8 <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,152,214,0,0 // movaps 0xd698(%eax),%xmm4
+ .byte 15,40,160,216,216,0,0 // movaps 0xd8d8(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -61255,7 +61748,7 @@ _sk_clamp_a_sse2:
.byte 232,0,0,0,0 // call 1ffb <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,101,214,0,0 // minps 0xd665(%eax),%xmm3
+ .byte 15,93,152,165,216,0,0 // minps 0xd8a5(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -61280,7 +61773,7 @@ _sk_clamp_a_dst_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,53,214,0,0 // minps 0xd635(%eax),%xmm4
+ .byte 15,93,160,117,216,0,0 // minps 0xd875(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -61354,7 +61847,7 @@ _sk_invert_sse2:
.byte 232,0,0,0,0 // call 20d6 <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,138,213,0,0 // movaps 0xd58a(%eax),%xmm4
+ .byte 15,40,160,202,215,0,0 // movaps 0xd7ca(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -61476,10 +61969,10 @@ _sk_unpremul_sse2:
.byte 232,0,0,0,0 // call 21d4 <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,140,212,0,0 // movaps 0xd48c(%eax),%xmm4
+ .byte 15,40,160,204,214,0,0 // movaps 0xd6cc(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,168,108,213,0,0,1 // cmpltps 0xd56c(%eax),%xmm5
+ .byte 15,194,168,172,215,0,0,1 // cmpltps 0xd7ac(%eax),%xmm5
.byte 15,84,236 // andps %xmm4,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -61508,19 +62001,19 @@ _sk_from_srgb_sse2:
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,206,212,0,0 // movaps 0xd4ce(%eax),%xmm4
+ .byte 15,40,160,14,215,0,0 // movaps 0xd70e(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,62,213,0,0 // movaps 0xd53e(%eax),%xmm6
+ .byte 15,40,176,126,215,0,0 // movaps 0xd77e(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,46,213,0,0 // movaps 0xd52e(%eax),%xmm6
+ .byte 15,40,176,110,215,0,0 // movaps 0xd76e(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,78,213,0,0 // movaps 0xd54e(%eax),%xmm7
+ .byte 15,40,184,142,215,0,0 // movaps 0xd78e(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,94,213,0,0 // movaps 0xd55e(%eax),%xmm7
+ .byte 15,40,184,158,215,0,0 // movaps 0xd79e(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -61580,18 +62073,18 @@ _sk_from_srgb_dst_sse2:
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,243,211,0,0 // movaps 0xd3f3(%ecx),%xmm4
+ .byte 15,40,161,51,214,0,0 // movaps 0xd633(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,99,212,0,0 // movaps 0xd463(%ecx),%xmm6
+ .byte 15,40,177,163,214,0,0 // movaps 0xd6a3(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,83,212,0,0 // movaps 0xd453(%ecx),%xmm5
+ .byte 15,40,169,147,214,0,0 // movaps 0xd693(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,115,212,0,0 // movaps 0xd473(%ecx),%xmm7
+ .byte 15,40,185,179,214,0,0 // movaps 0xd6b3(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,131,212,0,0 // movaps 0xd483(%ecx),%xmm3
+ .byte 15,40,153,195,214,0,0 // movaps 0xd6c3(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -61653,25 +62146,25 @@ _sk_to_srgb_sse2:
.byte 232,0,0,0,0 // call 23e8 <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,184,211,0,0 // movaps 0xd3b8(%eax),%xmm4
+ .byte 15,40,160,248,213,0,0 // movaps 0xd5f8(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,200,211,0,0 // movaps 0xd3c8(%eax),%xmm0
+ .byte 15,40,128,8,214,0,0 // movaps 0xd608(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,216,211,0,0 // movaps 0xd3d8(%eax),%xmm0
+ .byte 15,40,128,24,214,0,0 // movaps 0xd618(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,232,211,0,0 // movaps 0xd3e8(%eax),%xmm0
+ .byte 15,40,128,40,214,0,0 // movaps 0xd628(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,168,211,0,0 // movaps 0xd3a8(%eax),%xmm5
+ .byte 15,40,168,232,213,0,0 // movaps 0xd5e8(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,248,211,0,0 // movaps 0xd3f8(%eax),%xmm3
+ .byte 15,40,152,56,214,0,0 // movaps 0xd638(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -61742,14 +62235,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,129,209,0,0 // movaps 0xd181(%eax),%xmm1
+ .byte 15,40,136,193,211,0,0 // movaps 0xd3c1(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,17,211,0,0 // andps 0xd311(%eax),%xmm5
+ .byte 15,84,168,81,213,0,0 // andps 0xd551(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -61759,9 +62252,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,33,211,0,0 // movaps 0xd321(%eax),%xmm1
+ .byte 15,40,136,97,213,0,0 // movaps 0xd561(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,49,211,0,0 // addps 0xd331(%eax),%xmm4
+ .byte 15,88,160,113,213,0,0 // addps 0xd571(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -61773,7 +62266,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,113,209,0,0 // movaps 0xd171(%eax),%xmm5
+ .byte 15,40,168,177,211,0,0 // movaps 0xd3b1(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -61783,7 +62276,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,65,211,0,0 // mulps 0xd341(%eax),%xmm0
+ .byte 15,89,128,129,213,0,0 // mulps 0xd581(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -61808,7 +62301,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
.byte 232,0,0,0,0 // call 25da <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,118,208,0,0 // movaps 0xd076(%eax),%xmm4
+ .byte 15,40,160,182,210,0,0 // movaps 0xd2b6(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -61821,13 +62314,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,86,210,0,0 // movaps 0xd256(%eax),%xmm5
+ .byte 15,40,168,150,212,0,0 // movaps 0xd496(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,134,208,0,0 // movaps 0xd086(%eax),%xmm6
+ .byte 15,40,176,198,210,0,0 // movaps 0xd2c6(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -61837,19 +62330,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,102,210,0,0 // movaps 0xd266(%eax),%xmm7
+ .byte 15,40,184,166,212,0,0 // movaps 0xd4a6(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,70,210,0,0 // movaps 0xd246(%eax),%xmm4
+ .byte 15,40,160,134,212,0,0 // movaps 0xd486(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,22,210,0,0 // movaps 0xd216(%eax),%xmm6
+ .byte 15,40,176,86,212,0,0 // movaps 0xd456(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,54,210,0,0 // movaps 0xd236(%eax),%xmm0
+ .byte 15,40,128,118,212,0,0 // movaps 0xd476(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -61875,18 +62368,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,134,208,0,0 // andps 0xd086(%eax),%xmm1
+ .byte 15,84,136,198,210,0,0 // andps 0xd2c6(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,102,210,0,0 // movaps 0xd266(%eax),%xmm0
+ .byte 15,40,128,166,212,0,0 // movaps 0xd4a6(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,118,208,0,0 // movaps 0xd076(%eax),%xmm3
+ .byte 15,40,152,182,210,0,0 // movaps 0xd2b6(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,70,210,0,0 // movaps 0xd246(%eax),%xmm4
+ .byte 15,40,160,134,212,0,0 // movaps 0xd486(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,54,210,0,0 // movaps 0xd236(%eax),%xmm5
+ .byte 15,40,168,118,212,0,0 // movaps 0xd476(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -61906,7 +62399,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,118,210,0,0 // addps 0xd276(%eax),%xmm3
+ .byte 15,88,152,182,212,0,0 // addps 0xd4b6(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -62008,9 +62501,9 @@ _sk_scale_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,204,206,0,0 // pand 0xcecc(%edx),%xmm4
+ .byte 102,15,219,162,12,209,0,0 // pand 0xd10c(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,12,208,0,0 // mulps 0xd00c(%edx),%xmm4
+ .byte 15,89,162,76,210,0,0 // mulps 0xd24c(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -62076,17 +62569,17 @@ _sk_scale_565_sse2:
.byte 15,133,157,0,0,0 // jne 29cc <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,98,207,0,0 // movdqa 0xcf62(%edx),%xmm4
+ .byte 102,15,111,162,162,209,0,0 // movdqa 0xd1a2(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,114,207,0,0 // mulps 0xcf72(%edx),%xmm2
- .byte 102,15,111,170,130,207,0,0 // movdqa 0xcf82(%edx),%xmm5
+ .byte 15,89,146,178,209,0,0 // mulps 0xd1b2(%edx),%xmm2
+ .byte 102,15,111,170,194,209,0,0 // movdqa 0xd1c2(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,146,207,0,0 // mulps 0xcf92(%edx),%xmm5
- .byte 102,15,219,178,162,207,0,0 // pand 0xcfa2(%edx),%xmm6
+ .byte 15,89,170,210,209,0,0 // mulps 0xd1d2(%edx),%xmm5
+ .byte 102,15,219,178,226,209,0,0 // pand 0xd1e2(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,178,207,0,0 // mulps 0xcfb2(%edx),%xmm6
+ .byte 15,89,178,242,209,0,0 // mulps 0xd1f2(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -62200,9 +62693,9 @@ _sk_lerp_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,164,204,0,0 // pand 0xcca4(%edx),%xmm4
+ .byte 102,15,219,162,228,206,0,0 // pand 0xcee4(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,228,205,0,0 // mulps 0xcde4(%edx),%xmm4
+ .byte 15,89,162,36,208,0,0 // mulps 0xd024(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -62280,17 +62773,17 @@ _sk_lerp_565_sse2:
.byte 15,133,211,0,0,0 // jne 2c5a <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,10,205,0,0 // movdqa 0xcd0a(%edx),%xmm4
+ .byte 102,15,111,162,74,207,0,0 // movdqa 0xcf4a(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,26,205,0,0 // mulps 0xcd1a(%edx),%xmm1
- .byte 102,15,111,178,42,205,0,0 // movdqa 0xcd2a(%edx),%xmm6
+ .byte 15,89,138,90,207,0,0 // mulps 0xcf5a(%edx),%xmm1
+ .byte 102,15,111,178,106,207,0,0 // movdqa 0xcf6a(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,58,205,0,0 // mulps 0xcd3a(%edx),%xmm6
- .byte 102,15,219,170,74,205,0,0 // pand 0xcd4a(%edx),%xmm5
+ .byte 15,89,178,122,207,0,0 // mulps 0xcf7a(%edx),%xmm6
+ .byte 102,15,219,170,138,207,0,0 // pand 0xcf8a(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,90,205,0,0 // mulps 0xcd5a(%edx),%xmm2
+ .byte 15,89,146,154,207,0,0 // mulps 0xcf9a(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -62378,7 +62871,7 @@ _sk_load_tables_sse2:
.byte 139,30 // mov (%esi),%ebx
.byte 15,133,22,1,0,0 // jne 2dde <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,112,202,0,0 // movdqa 0xca70(%edx),%xmm2
+ .byte 102,15,111,146,176,204,0,0 // movdqa 0xccb0(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -62434,7 +62927,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,176,203,0,0 // mulps 0xcbb0(%edx),%xmm3
+ .byte 15,89,154,240,205,0,0 // mulps 0xcdf0(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -62509,7 +63002,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,175,202,0,0 // movdqa 0xcaaf(%edx),%xmm2
+ .byte 102,15,111,146,239,204,0,0 // movdqa 0xccef(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -62581,7 +63074,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,191,202,0,0 // mulps 0xcabf(%edx),%xmm3
+ .byte 15,89,154,255,204,0,0 // mulps 0xccff(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -62654,7 +63147,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,136,200,0,0 // movdqa 0xc888(%edx),%xmm2
+ .byte 102,15,111,146,200,202,0,0 // movdqa 0xcac8(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -62719,7 +63212,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,24,198,0,0 // movaps 0xc618(%edx),%xmm3
+ .byte 15,40,154,88,200,0,0 // movaps 0xc858(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -62762,7 +63255,7 @@ _sk_byte_tables_sse2:
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 15,40,162,187,196,0,0 // movaps 0xc4bb(%edx),%xmm4
+ .byte 15,40,162,251,198,0,0 // movaps 0xc6fb(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -62784,7 +63277,7 @@ _sk_byte_tables_sse2:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 139,65,4 // mov 0x4(%ecx),%eax
.byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,170,235,197,0,0 // movaps 0xc5eb(%edx),%xmm5
+ .byte 15,40,170,43,200,0,0 // movaps 0xc82b(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -62914,7 +63407,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 139,121,4 // mov 0x4(%ecx),%edi
.byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,239,195,0,0 // movaps 0xc3ef(%edx),%xmm5
+ .byte 15,40,170,47,198,0,0 // movaps 0xc62f(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -63170,15 +63663,15 @@ _sk_parametric_r_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,175,193,0,0 // mulps 0xc1af(%edx),%xmm5
- .byte 15,84,178,191,193,0,0 // andps 0xc1bf(%edx),%xmm6
- .byte 15,86,178,15,191,0,0 // orps 0xbf0f(%edx),%xmm6
- .byte 15,88,170,207,193,0,0 // addps 0xc1cf(%edx),%xmm5
- .byte 15,40,186,223,193,0,0 // movaps 0xc1df(%edx),%xmm7
+ .byte 15,89,170,239,195,0,0 // mulps 0xc3ef(%edx),%xmm5
+ .byte 15,84,178,255,195,0,0 // andps 0xc3ff(%edx),%xmm6
+ .byte 15,86,178,79,193,0,0 // orps 0xc14f(%edx),%xmm6
+ .byte 15,88,170,15,196,0,0 // addps 0xc40f(%edx),%xmm5
+ .byte 15,40,186,31,196,0,0 // movaps 0xc41f(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,239,193,0,0 // addps 0xc1ef(%edx),%xmm6
- .byte 15,40,186,255,193,0,0 // movaps 0xc1ff(%edx),%xmm7
+ .byte 15,88,178,47,196,0,0 // addps 0xc42f(%edx),%xmm6
+ .byte 15,40,186,63,196,0,0 // movaps 0xc43f(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -63188,21 +63681,21 @@ _sk_parametric_r_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,31,191,0,0 // movaps 0xbf1f(%edx),%xmm6
+ .byte 15,40,178,95,193,0,0 // movaps 0xc15f(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,15,194,0,0 // addps 0xc20f(%edx),%xmm5
- .byte 15,40,186,31,194,0,0 // movaps 0xc21f(%edx),%xmm7
+ .byte 15,88,170,79,196,0,0 // addps 0xc44f(%edx),%xmm5
+ .byte 15,40,186,95,196,0,0 // movaps 0xc45f(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,47,194,0,0 // movaps 0xc22f(%edx),%xmm7
+ .byte 15,40,186,111,196,0,0 // movaps 0xc46f(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,63,194,0,0 // movaps 0xc23f(%edx),%xmm0
+ .byte 15,40,130,127,196,0,0 // movaps 0xc47f(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,79,194,0,0 // mulps 0xc24f(%edx),%xmm0
+ .byte 15,89,130,143,196,0,0 // mulps 0xc48f(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -63256,15 +63749,15 @@ _sk_parametric_g_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,120,192,0,0 // mulps 0xc078(%edx),%xmm5
- .byte 15,84,178,136,192,0,0 // andps 0xc088(%edx),%xmm6
- .byte 15,86,178,216,189,0,0 // orps 0xbdd8(%edx),%xmm6
- .byte 15,88,170,152,192,0,0 // addps 0xc098(%edx),%xmm5
- .byte 15,40,186,168,192,0,0 // movaps 0xc0a8(%edx),%xmm7
+ .byte 15,89,170,184,194,0,0 // mulps 0xc2b8(%edx),%xmm5
+ .byte 15,84,178,200,194,0,0 // andps 0xc2c8(%edx),%xmm6
+ .byte 15,86,178,24,192,0,0 // orps 0xc018(%edx),%xmm6
+ .byte 15,88,170,216,194,0,0 // addps 0xc2d8(%edx),%xmm5
+ .byte 15,40,186,232,194,0,0 // movaps 0xc2e8(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,184,192,0,0 // addps 0xc0b8(%edx),%xmm6
- .byte 15,40,186,200,192,0,0 // movaps 0xc0c8(%edx),%xmm7
+ .byte 15,88,178,248,194,0,0 // addps 0xc2f8(%edx),%xmm6
+ .byte 15,40,186,8,195,0,0 // movaps 0xc308(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -63274,21 +63767,21 @@ _sk_parametric_g_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,232,189,0,0 // movaps 0xbde8(%edx),%xmm6
+ .byte 15,40,178,40,192,0,0 // movaps 0xc028(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,216,192,0,0 // addps 0xc0d8(%edx),%xmm5
- .byte 15,40,186,232,192,0,0 // movaps 0xc0e8(%edx),%xmm7
+ .byte 15,88,170,24,195,0,0 // addps 0xc318(%edx),%xmm5
+ .byte 15,40,186,40,195,0,0 // movaps 0xc328(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,248,192,0,0 // movaps 0xc0f8(%edx),%xmm7
+ .byte 15,40,186,56,195,0,0 // movaps 0xc338(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,8,193,0,0 // movaps 0xc108(%edx),%xmm0
+ .byte 15,40,130,72,195,0,0 // movaps 0xc348(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,24,193,0,0 // mulps 0xc118(%edx),%xmm0
+ .byte 15,89,130,88,195,0,0 // mulps 0xc358(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -63341,15 +63834,15 @@ _sk_parametric_b_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,68,191,0,0 // mulps 0xbf44(%edx),%xmm5
- .byte 15,84,178,84,191,0,0 // andps 0xbf54(%edx),%xmm6
- .byte 15,86,178,164,188,0,0 // orps 0xbca4(%edx),%xmm6
- .byte 15,88,170,100,191,0,0 // addps 0xbf64(%edx),%xmm5
- .byte 15,40,186,116,191,0,0 // movaps 0xbf74(%edx),%xmm7
+ .byte 15,89,170,132,193,0,0 // mulps 0xc184(%edx),%xmm5
+ .byte 15,84,178,148,193,0,0 // andps 0xc194(%edx),%xmm6
+ .byte 15,86,178,228,190,0,0 // orps 0xbee4(%edx),%xmm6
+ .byte 15,88,170,164,193,0,0 // addps 0xc1a4(%edx),%xmm5
+ .byte 15,40,186,180,193,0,0 // movaps 0xc1b4(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,132,191,0,0 // addps 0xbf84(%edx),%xmm6
- .byte 15,40,186,148,191,0,0 // movaps 0xbf94(%edx),%xmm7
+ .byte 15,88,178,196,193,0,0 // addps 0xc1c4(%edx),%xmm6
+ .byte 15,40,186,212,193,0,0 // movaps 0xc1d4(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -63359,21 +63852,21 @@ _sk_parametric_b_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,180,188,0,0 // movaps 0xbcb4(%edx),%xmm6
+ .byte 15,40,178,244,190,0,0 // movaps 0xbef4(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,164,191,0,0 // addps 0xbfa4(%edx),%xmm5
- .byte 15,40,186,180,191,0,0 // movaps 0xbfb4(%edx),%xmm7
+ .byte 15,88,170,228,193,0,0 // addps 0xc1e4(%edx),%xmm5
+ .byte 15,40,186,244,193,0,0 // movaps 0xc1f4(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,196,191,0,0 // movaps 0xbfc4(%edx),%xmm7
+ .byte 15,40,186,4,194,0,0 // movaps 0xc204(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,212,191,0,0 // movaps 0xbfd4(%edx),%xmm0
+ .byte 15,40,130,20,194,0,0 // movaps 0xc214(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,228,191,0,0 // mulps 0xbfe4(%edx),%xmm0
+ .byte 15,89,130,36,194,0,0 // mulps 0xc224(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -63426,15 +63919,15 @@ _sk_parametric_a_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,16,190,0,0 // mulps 0xbe10(%edx),%xmm5
- .byte 15,84,178,32,190,0,0 // andps 0xbe20(%edx),%xmm6
- .byte 15,86,178,112,187,0,0 // orps 0xbb70(%edx),%xmm6
- .byte 15,88,170,48,190,0,0 // addps 0xbe30(%edx),%xmm5
- .byte 15,40,186,64,190,0,0 // movaps 0xbe40(%edx),%xmm7
+ .byte 15,89,170,80,192,0,0 // mulps 0xc050(%edx),%xmm5
+ .byte 15,84,178,96,192,0,0 // andps 0xc060(%edx),%xmm6
+ .byte 15,86,178,176,189,0,0 // orps 0xbdb0(%edx),%xmm6
+ .byte 15,88,170,112,192,0,0 // addps 0xc070(%edx),%xmm5
+ .byte 15,40,186,128,192,0,0 // movaps 0xc080(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,80,190,0,0 // addps 0xbe50(%edx),%xmm6
- .byte 15,40,186,96,190,0,0 // movaps 0xbe60(%edx),%xmm7
+ .byte 15,88,178,144,192,0,0 // addps 0xc090(%edx),%xmm6
+ .byte 15,40,186,160,192,0,0 // movaps 0xc0a0(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -63444,21 +63937,21 @@ _sk_parametric_a_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,128,187,0,0 // movaps 0xbb80(%edx),%xmm6
+ .byte 15,40,178,192,189,0,0 // movaps 0xbdc0(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,112,190,0,0 // addps 0xbe70(%edx),%xmm5
- .byte 15,40,186,128,190,0,0 // movaps 0xbe80(%edx),%xmm7
+ .byte 15,88,170,176,192,0,0 // addps 0xc0b0(%edx),%xmm5
+ .byte 15,40,186,192,192,0,0 // movaps 0xc0c0(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,144,190,0,0 // movaps 0xbe90(%edx),%xmm7
+ .byte 15,40,186,208,192,0,0 // movaps 0xc0d0(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,160,190,0,0 // movaps 0xbea0(%edx),%xmm0
+ .byte 15,40,130,224,192,0,0 // movaps 0xc0e0(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,176,190,0,0 // mulps 0xbeb0(%edx),%xmm0
+ .byte 15,89,130,240,192,0,0 // mulps 0xc0f0(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -63493,15 +63986,15 @@ _sk_gamma_sse2:
.byte 232,0,0,0,0 // call 3c11 <_sk_gamma_sse2+0x12>
.byte 88 // pop %eax
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,128,223,188,0,0 // mulps 0xbcdf(%eax),%xmm0
- .byte 15,84,152,239,188,0,0 // andps 0xbcef(%eax),%xmm3
- .byte 15,86,152,63,186,0,0 // orps 0xba3f(%eax),%xmm3
- .byte 15,88,128,255,188,0,0 // addps 0xbcff(%eax),%xmm0
+ .byte 15,89,128,31,191,0,0 // mulps 0xbf1f(%eax),%xmm0
+ .byte 15,84,152,47,191,0,0 // andps 0xbf2f(%eax),%xmm3
+ .byte 15,86,152,127,188,0,0 // orps 0xbc7f(%eax),%xmm3
+ .byte 15,88,128,63,191,0,0 // addps 0xbf3f(%eax),%xmm0
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,160,15,189,0,0 // mulps 0xbd0f(%eax),%xmm4
+ .byte 15,89,160,79,191,0,0 // mulps 0xbf4f(%eax),%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,152,31,189,0,0 // addps 0xbd1f(%eax),%xmm3
- .byte 15,40,160,47,189,0,0 // movaps 0xbd2f(%eax),%xmm4
+ .byte 15,88,152,95,191,0,0 // addps 0xbf5f(%eax),%xmm3
+ .byte 15,40,160,111,191,0,0 // movaps 0xbf6f(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -63514,30 +64007,30 @@ _sk_gamma_sse2:
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,227,1 // cmpltps %xmm3,%xmm4
- .byte 15,84,160,79,186,0,0 // andps 0xba4f(%eax),%xmm4
+ .byte 15,84,160,143,188,0,0 // andps 0xbc8f(%eax),%xmm4
.byte 15,92,220 // subps %xmm4,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,88,128,63,189,0,0 // addps 0xbd3f(%eax),%xmm0
- .byte 15,40,176,95,189,0,0 // movaps 0xbd5f(%eax),%xmm6
+ .byte 15,88,128,127,191,0,0 // addps 0xbf7f(%eax),%xmm0
+ .byte 15,40,176,159,191,0,0 // movaps 0xbf9f(%eax),%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,168,79,189,0,0 // movaps 0xbd4f(%eax),%xmm5
+ .byte 15,40,168,143,191,0,0 // movaps 0xbf8f(%eax),%xmm5
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,152,111,189,0,0 // movaps 0xbd6f(%eax),%xmm3
+ .byte 15,40,152,175,191,0,0 // movaps 0xbfaf(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,94,230 // divps %xmm6,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,223,188,0,0 // mulps 0xbcdf(%eax),%xmm0
- .byte 15,84,136,239,188,0,0 // andps 0xbcef(%eax),%xmm1
- .byte 15,86,136,63,186,0,0 // orps 0xba3f(%eax),%xmm1
- .byte 15,88,128,255,188,0,0 // addps 0xbcff(%eax),%xmm0
+ .byte 15,89,128,31,191,0,0 // mulps 0xbf1f(%eax),%xmm0
+ .byte 15,84,136,47,191,0,0 // andps 0xbf2f(%eax),%xmm1
+ .byte 15,86,136,127,188,0,0 // orps 0xbc7f(%eax),%xmm1
+ .byte 15,88,128,63,191,0,0 // addps 0xbf3f(%eax),%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,176,15,189,0,0 // mulps 0xbd0f(%eax),%xmm6
+ .byte 15,89,176,79,191,0,0 // mulps 0xbf4f(%eax),%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,136,31,189,0,0 // addps 0xbd1f(%eax),%xmm1
- .byte 15,40,176,47,189,0,0 // movaps 0xbd2f(%eax),%xmm6
+ .byte 15,88,136,95,191,0,0 // addps 0xbf5f(%eax),%xmm1
+ .byte 15,40,176,111,191,0,0 // movaps 0xbf6f(%eax),%xmm6
.byte 15,94,241 // divps %xmm1,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -63545,12 +64038,12 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,241,1 // cmpltps %xmm1,%xmm6
- .byte 15,84,176,79,186,0,0 // andps 0xba4f(%eax),%xmm6
+ .byte 15,84,176,143,188,0,0 // andps 0xbc8f(%eax),%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,88,128,63,189,0,0 // addps 0xbd3f(%eax),%xmm0
- .byte 15,40,184,95,189,0,0 // movaps 0xbd5f(%eax),%xmm7
+ .byte 15,88,128,127,191,0,0 // addps 0xbf7f(%eax),%xmm0
+ .byte 15,40,184,159,191,0,0 // movaps 0xbf9f(%eax),%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -63558,15 +64051,15 @@ _sk_gamma_sse2:
.byte 15,94,207 // divps %xmm7,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,128,223,188,0,0 // mulps 0xbcdf(%eax),%xmm0
- .byte 15,84,144,239,188,0,0 // andps 0xbcef(%eax),%xmm2
- .byte 15,86,144,63,186,0,0 // orps 0xba3f(%eax),%xmm2
- .byte 15,88,128,255,188,0,0 // addps 0xbcff(%eax),%xmm0
- .byte 15,40,176,15,189,0,0 // movaps 0xbd0f(%eax),%xmm6
+ .byte 15,89,128,31,191,0,0 // mulps 0xbf1f(%eax),%xmm0
+ .byte 15,84,144,47,191,0,0 // andps 0xbf2f(%eax),%xmm2
+ .byte 15,86,144,127,188,0,0 // orps 0xbc7f(%eax),%xmm2
+ .byte 15,88,128,63,191,0,0 // addps 0xbf3f(%eax),%xmm0
+ .byte 15,40,176,79,191,0,0 // movaps 0xbf4f(%eax),%xmm6
.byte 15,89,242 // mulps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,144,31,189,0,0 // addps 0xbd1f(%eax),%xmm2
- .byte 15,40,176,47,189,0,0 // movaps 0xbd2f(%eax),%xmm6
+ .byte 15,88,144,95,191,0,0 // addps 0xbf5f(%eax),%xmm2
+ .byte 15,40,176,111,191,0,0 // movaps 0xbf6f(%eax),%xmm6
.byte 15,94,242 // divps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
@@ -63574,18 +64067,18 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,242,1 // cmpltps %xmm2,%xmm6
- .byte 15,84,176,79,186,0,0 // andps 0xba4f(%eax),%xmm6
+ .byte 15,84,176,143,188,0,0 // andps 0xbc8f(%eax),%xmm6
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,88,128,63,189,0,0 // addps 0xbd3f(%eax),%xmm0
+ .byte 15,88,128,127,191,0,0 // addps 0xbf7f(%eax),%xmm0
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,144,95,189,0,0 // movaps 0xbd5f(%eax),%xmm2
+ .byte 15,40,144,159,191,0,0 // movaps 0xbf9f(%eax),%xmm2
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,128,127,189,0,0 // movaps 0xbd7f(%eax),%xmm0
+ .byte 15,40,128,191,191,0,0 // movaps 0xbfbf(%eax),%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,89,216 // mulps %xmm0,%xmm3
@@ -63602,6 +64095,160 @@ _sk_gamma_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
+HIDDEN _sk_gamma_dst_sse2
+.globl _sk_gamma_dst_sse2
+FUNCTION(_sk_gamma_dst_sse2)
+_sk_gamma_dst_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 86 // push %esi
+ .byte 129,236,196,0,0,0 // sub $0xc4,%esp
+ .byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
+ .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
+ .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
+ .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
+ .byte 232,0,0,0,0 // call 3e0f <_sk_gamma_dst_sse2+0x2b>
+ .byte 94 // pop %esi
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,64,16 // movaps 0x10(%eax),%xmm0
+ .byte 15,91,224 // cvtdq2ps %xmm0,%xmm4
+ .byte 15,40,142,33,189,0,0 // movaps 0xbd21(%esi),%xmm1
+ .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,40,142,49,189,0,0 // movaps 0xbd31(%esi),%xmm1
+ .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
+ .byte 15,84,193 // andps %xmm1,%xmm0
+ .byte 15,40,142,129,186,0,0 // movaps 0xba81(%esi),%xmm1
+ .byte 15,41,77,136 // movaps %xmm1,-0x78(%ebp)
+ .byte 15,86,193 // orps %xmm1,%xmm0
+ .byte 15,40,142,65,189,0,0 // movaps 0xbd41(%esi),%xmm1
+ .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,150,81,189,0,0 // movaps 0xbd51(%esi),%xmm2
+ .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,40,142,97,189,0,0 // movaps 0xbd61(%esi),%xmm1
+ .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,40,190,113,189,0,0 // movaps 0xbd71(%esi),%xmm7
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 15,94,200 // divps %xmm0,%xmm1
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 243,15,16,2 // movss (%edx),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
+ .byte 15,40,150,145,186,0,0 // movaps 0xba91(%esi),%xmm2
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,84,202 // andps %xmm2,%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,92,200 // subps %xmm0,%xmm1
+ .byte 15,40,134,129,189,0,0 // movaps 0xbd81(%esi),%xmm0
+ .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,40,182,161,189,0,0 // movaps 0xbda1(%esi),%xmm6
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,40,174,145,189,0,0 // movaps 0xbd91(%esi),%xmm5
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,40,158,177,189,0,0 // movaps 0xbdb1(%esi),%xmm3
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,94,200 // divps %xmm0,%xmm1
+ .byte 15,88,204 // addps %xmm4,%xmm1
+ .byte 15,40,166,193,189,0,0 // movaps 0xbdc1(%esi),%xmm4
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 102,15,91,193 // cvtps2dq %xmm1,%xmm0
+ .byte 15,40,80,32 // movaps 0x20(%eax),%xmm2
+ .byte 102,15,41,64,16 // movapd %xmm0,0x10(%eax)
+ .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
+ .byte 15,89,69,168 // mulps -0x58(%ebp),%xmm0
+ .byte 15,84,149,120,255,255,255 // andps -0x88(%ebp),%xmm2
+ .byte 15,86,85,136 // orps -0x78(%ebp),%xmm2
+ .byte 15,88,69,152 // addps -0x68(%ebp),%xmm0
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,89,77,232 // mulps -0x18(%ebp),%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,88,85,184 // addps -0x48(%ebp),%xmm2
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 15,94,202 // divps %xmm2,%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 243,15,16,10 // movss (%edx),%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,194,209,1 // cmpltps %xmm1,%xmm2
+ .byte 15,84,85,200 // andps -0x38(%ebp),%xmm2
+ .byte 15,92,202 // subps %xmm2,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,92,209 // subps %xmm1,%xmm2
+ .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0
+ .byte 15,40,206 // movaps %xmm6,%xmm1
+ .byte 15,92,202 // subps %xmm2,%xmm1
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,94,209 // divps %xmm1,%xmm2
+ .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
+ .byte 102,15,41,64,32 // movapd %xmm0,0x20(%eax)
+ .byte 15,40,72,48 // movaps 0x30(%eax),%xmm1
+ .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
+ .byte 15,89,69,168 // mulps -0x58(%ebp),%xmm0
+ .byte 15,84,141,120,255,255,255 // andps -0x88(%ebp),%xmm1
+ .byte 15,86,77,136 // orps -0x78(%ebp),%xmm1
+ .byte 15,88,69,152 // addps -0x68(%ebp),%xmm0
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
+ .byte 15,89,209 // mulps %xmm1,%xmm2
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,88,77,184 // addps -0x48(%ebp),%xmm1
+ .byte 15,94,249 // divps %xmm1,%xmm7
+ .byte 15,92,199 // subps %xmm7,%xmm0
+ .byte 243,15,16,10 // movss (%edx),%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,194,209,1 // cmpltps %xmm1,%xmm2
+ .byte 15,84,85,200 // andps -0x38(%ebp),%xmm2
+ .byte 15,92,202 // subps %xmm2,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,92,209 // subps %xmm1,%xmm2
+ .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0
+ .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,92,242 // subps %xmm2,%xmm6
+ .byte 15,94,222 // divps %xmm6,%xmm3
+ .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 15,89,220 // mulps %xmm4,%xmm3
+ .byte 102,15,91,195 // cvtps2dq %xmm3,%xmm0
+ .byte 102,15,41,64,48 // movapd %xmm0,0x30(%eax)
+ .byte 141,81,8 // lea 0x8(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0
+ .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
+ .byte 15,40,149,72,255,255,255 // movaps -0xb8(%ebp),%xmm2
+ .byte 15,40,157,56,255,255,255 // movaps -0xc8(%ebp),%xmm3
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,81,4 // call *0x4(%ecx)
+ .byte 129,196,212,0,0,0 // add $0xd4,%esp
+ .byte 94 // pop %esi
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+
HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
@@ -63612,31 +64259,31 @@ _sk_lab_to_xyz_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3df9 <_sk_lab_to_xyz_sse2+0x15>
+ .byte 232,0,0,0,0 // call 403b <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,167,187,0,0 // mulps 0xbba7(%eax),%xmm2
- .byte 15,40,160,55,185,0,0 // movaps 0xb937(%eax),%xmm4
+ .byte 15,89,144,165,187,0,0 // mulps 0xbba5(%eax),%xmm2
+ .byte 15,40,160,53,185,0,0 // movaps 0xb935(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,183,187,0,0 // movaps 0xbbb7(%eax),%xmm5
+ .byte 15,40,168,181,187,0,0 // movaps 0xbbb5(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,199,187,0,0 // addps 0xbbc7(%eax),%xmm2
- .byte 15,89,144,215,187,0,0 // mulps 0xbbd7(%eax),%xmm2
- .byte 15,89,136,231,187,0,0 // mulps 0xbbe7(%eax),%xmm1
+ .byte 15,88,144,197,187,0,0 // addps 0xbbc5(%eax),%xmm2
+ .byte 15,89,144,213,187,0,0 // mulps 0xbbd5(%eax),%xmm2
+ .byte 15,89,136,229,187,0,0 // mulps 0xbbe5(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,247,187,0,0 // mulps 0xbbf7(%eax),%xmm3
+ .byte 15,89,152,245,187,0,0 // mulps 0xbbf5(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,7,188,0,0 // movaps 0xbc07(%eax),%xmm3
+ .byte 15,40,152,5,188,0,0 // movaps 0xbc05(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,23,188,0,0 // movaps 0xbc17(%eax),%xmm6
+ .byte 15,40,176,21,188,0,0 // movaps 0xbc15(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,39,188,0,0 // movaps 0xbc27(%eax),%xmm7
+ .byte 15,40,184,37,188,0,0 // movaps 0xbc25(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -63661,8 +64308,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,55,188,0,0 // mulps 0xbc37(%eax),%xmm4
- .byte 15,89,152,71,188,0,0 // mulps 0xbc47(%eax),%xmm3
+ .byte 15,89,160,53,188,0,0 // mulps 0xbc35(%eax),%xmm4
+ .byte 15,89,152,69,188,0,0 // mulps 0xbc45(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -63685,7 +64332,7 @@ _sk_load_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3ee9 <_sk_load_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 412b <_sk_load_a8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63696,13 +64343,13 @@ _sk_load_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,60 // jne 3f40 <_sk_load_a8_sse2+0x65>
+ .byte 117,60 // jne 4182 <_sk_load_a8_sse2+0x65>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,55,184,0,0 // pand 0xb837(%edx),%xmm0
+ .byte 102,15,219,130,53,184,0,0 // pand 0xb835(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,119,185,0,0 // mulps 0xb977(%edx),%xmm3
+ .byte 15,89,154,117,185,0,0 // mulps 0xb975(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -63719,12 +64366,12 @@ _sk_load_a8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 3f7a <_sk_load_a8_sse2+0x9f>
+ .byte 116,50 // je 41bc <_sk_load_a8_sse2+0x9f>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3f64 <_sk_load_a8_sse2+0x89>
+ .byte 116,19 // je 41a6 <_sk_load_a8_sse2+0x89>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,187 // jne 3f11 <_sk_load_a8_sse2+0x36>
+ .byte 117,187 // jne 4153 <_sk_load_a8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -63733,10 +64380,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,151 // jmp 3f11 <_sk_load_a8_sse2+0x36>
+ .byte 235,151 // jmp 4153 <_sk_load_a8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,141 // jmp 3f11 <_sk_load_a8_sse2+0x36>
+ .byte 235,141 // jmp 4153 <_sk_load_a8_sse2+0x36>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -63761,15 +64408,15 @@ _sk_load_a8_dst_sse2:
.byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
.byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 3fbd <_sk_load_a8_dst_sse2+0x39>
+ .byte 232,0,0,0,0 // call 41ff <_sk_load_a8_dst_sse2+0x39>
.byte 90 // pop %edx
- .byte 117,54 // jne 3ff6 <_sk_load_a8_dst_sse2+0x72>
+ .byte 117,54 // jne 4238 <_sk_load_a8_dst_sse2+0x72>
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,99,183,0,0 // pand 0xb763(%edx),%xmm4
+ .byte 102,15,219,162,97,183,0,0 // pand 0xb761(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,163,184,0,0 // mulps 0xb8a3(%edx),%xmm4
+ .byte 15,89,162,161,184,0,0 // mulps 0xb8a1(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -63784,11 +64431,11 @@ _sk_load_a8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 402c <_sk_load_a8_dst_sse2+0xa8>
+ .byte 116,46 // je 426e <_sk_load_a8_dst_sse2+0xa8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4016 <_sk_load_a8_dst_sse2+0x92>
+ .byte 116,19 // je 4258 <_sk_load_a8_dst_sse2+0x92>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,197 // jne 3fcd <_sk_load_a8_dst_sse2+0x49>
+ .byte 117,197 // jne 420f <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -63797,10 +64444,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,161 // jmp 3fcd <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,161 // jmp 420f <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,151 // jmp 3fcd <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,151 // jmp 420f <_sk_load_a8_dst_sse2+0x49>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -63854,13 +64501,13 @@ _sk_gather_a8_sse2:
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 232,0,0,0,0 // call 40ea <_sk_gather_a8_sse2+0xb4>
+ .byte 232,0,0,0,0 // call 432c <_sk_gather_a8_sse2+0xb4>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,118,183,0,0 // mulps 0xb776(%ecx),%xmm3
+ .byte 15,89,153,116,183,0,0 // mulps 0xb774(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -63885,7 +64532,7 @@ _sk_store_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 412e <_sk_store_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4370 <_sk_store_a8_sse2+0xe>
.byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63894,7 +64541,7 @@ _sk_store_a8_sse2:
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 3,23 // add (%edi),%edx
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,166,2,182,0,0 // movaps 0xb602(%esi),%xmm4
+ .byte 15,40,166,0,182,0,0 // movaps 0xb600(%esi),%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -63903,7 +64550,7 @@ _sk_store_a8_sse2:
.byte 102,15,103,224 // packuswb %xmm0,%xmm4
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,26 // jne 4183 <_sk_store_a8_sse2+0x63>
+ .byte 117,26 // jne 43c5 <_sk_store_a8_sse2+0x63>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 137,52,58 // mov %esi,(%edx,%edi,1)
.byte 141,80,8 // lea 0x8(%eax),%edx
@@ -63921,24 +64568,24 @@ _sk_store_a8_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,54 // je 41c9 <_sk_store_a8_sse2+0xa9>
+ .byte 116,54 // je 440b <_sk_store_a8_sse2+0xa9>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,14 // je 41a6 <_sk_store_a8_sse2+0x86>
+ .byte 116,14 // je 43e8 <_sk_store_a8_sse2+0x86>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 4170 <_sk_store_a8_sse2+0x50>
+ .byte 117,211 // jne 43b2 <_sk_store_a8_sse2+0x50>
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,34,185,0,0 // pand 0xb922(%esi),%xmm4
+ .byte 102,15,219,166,32,185,0,0 // pand 0xb920(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,137,52,58 // mov %si,(%edx,%edi,1)
- .byte 235,167 // jmp 4170 <_sk_store_a8_sse2+0x50>
+ .byte 235,167 // jmp 43b2 <_sk_store_a8_sse2+0x50>
.byte 102,15,126,227 // movd %xmm4,%ebx
.byte 136,28,58 // mov %bl,(%edx,%edi,1)
- .byte 235,158 // jmp 4170 <_sk_store_a8_sse2+0x50>
+ .byte 235,158 // jmp 43b2 <_sk_store_a8_sse2+0x50>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -63950,7 +64597,7 @@ _sk_load_g8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 41e0 <_sk_load_g8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4422 <_sk_load_g8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63961,16 +64608,16 @@ _sk_load_g8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,63 // jne 423a <_sk_load_g8_sse2+0x68>
+ .byte 117,63 // jne 447c <_sk_load_g8_sse2+0x68>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,64,181,0,0 // pand 0xb540(%edx),%xmm0
+ .byte 102,15,219,130,62,181,0,0 // pand 0xb53e(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,128,182,0,0 // mulps 0xb680(%edx),%xmm0
+ .byte 15,89,130,126,182,0,0 // mulps 0xb67e(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,128,180,0,0 // movaps 0xb480(%edx),%xmm3
+ .byte 15,40,154,126,180,0,0 // movaps 0xb47e(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -63984,12 +64631,12 @@ _sk_load_g8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 4274 <_sk_load_g8_sse2+0xa2>
+ .byte 116,50 // je 44b6 <_sk_load_g8_sse2+0xa2>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 425e <_sk_load_g8_sse2+0x8c>
+ .byte 116,19 // je 44a0 <_sk_load_g8_sse2+0x8c>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,184 // jne 4208 <_sk_load_g8_sse2+0x36>
+ .byte 117,184 // jne 444a <_sk_load_g8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -63998,10 +64645,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,148 // jmp 4208 <_sk_load_g8_sse2+0x36>
+ .byte 235,148 // jmp 444a <_sk_load_g8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,138 // jmp 4208 <_sk_load_g8_sse2+0x36>
+ .byte 235,138 // jmp 444a <_sk_load_g8_sse2+0x36>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -64013,7 +64660,7 @@ _sk_load_g8_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 428c <_sk_load_g8_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 44ce <_sk_load_g8_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64024,17 +64671,17 @@ _sk_load_g8_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,73 // jne 42f0 <_sk_load_g8_dst_sse2+0x72>
+ .byte 117,73 // jne 4532 <_sk_load_g8_dst_sse2+0x72>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,148,180,0,0 // pand 0xb494(%edx),%xmm4
+ .byte 102,15,219,162,146,180,0,0 // pand 0xb492(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,212,181,0,0 // mulps 0xb5d4(%edx),%xmm4
+ .byte 15,89,162,210,181,0,0 // mulps 0xb5d2(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,212,179,0,0 // movaps 0xb3d4(%edx),%xmm4
+ .byte 15,40,162,210,179,0,0 // movaps 0xb3d2(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -64049,12 +64696,12 @@ _sk_load_g8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 432a <_sk_load_g8_dst_sse2+0xac>
+ .byte 116,50 // je 456c <_sk_load_g8_dst_sse2+0xac>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4314 <_sk_load_g8_dst_sse2+0x96>
+ .byte 116,19 // je 4556 <_sk_load_g8_dst_sse2+0x96>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,174 // jne 42b4 <_sk_load_g8_dst_sse2+0x36>
+ .byte 117,174 // jne 44f6 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -64063,10 +64710,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,138 // jmp 42b4 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,138 // jmp 44f6 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,128 // jmp 42b4 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,128 // jmp 44f6 <_sk_load_g8_dst_sse2+0x36>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -64119,17 +64766,17 @@ _sk_gather_g8_sse2:
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
- .byte 232,0,0,0,0 // call 43e3 <_sk_gather_g8_sse2+0xaf>
+ .byte 232,0,0,0,0 // call 4625 <_sk_gather_g8_sse2+0xaf>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,125,180,0,0 // mulps 0xb47d(%ecx),%xmm0
+ .byte 15,89,129,123,180,0,0 // mulps 0xb47b(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,125,178,0,0 // movaps 0xb27d(%ecx),%xmm3
+ .byte 15,40,153,123,178,0,0 // movaps 0xb27b(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -64151,7 +64798,7 @@ _sk_load_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 442e <_sk_load_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4670 <_sk_load_565_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64163,23 +64810,23 @@ _sk_load_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,97 // jne 44ac <_sk_load_565_sse2+0x8c>
+ .byte 117,97 // jne 46ee <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,66,180,0,0 // movdqa 0xb442(%edx),%xmm0
+ .byte 102,15,111,130,64,180,0,0 // movdqa 0xb440(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,82,180,0,0 // mulps 0xb452(%edx),%xmm0
- .byte 102,15,111,138,98,180,0,0 // movdqa 0xb462(%edx),%xmm1
+ .byte 15,89,130,80,180,0,0 // mulps 0xb450(%edx),%xmm0
+ .byte 102,15,111,138,96,180,0,0 // movdqa 0xb460(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,114,180,0,0 // mulps 0xb472(%edx),%xmm1
- .byte 102,15,219,146,130,180,0,0 // pand 0xb482(%edx),%xmm2
+ .byte 15,89,138,112,180,0,0 // mulps 0xb470(%edx),%xmm1
+ .byte 102,15,219,146,128,180,0,0 // pand 0xb480(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,146,180,0,0 // mulps 0xb492(%edx),%xmm2
+ .byte 15,89,146,144,180,0,0 // mulps 0xb490(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,50,178,0,0 // movaps 0xb232(%edx),%xmm3
+ .byte 15,40,154,48,178,0,0 // movaps 0xb230(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -64191,22 +64838,22 @@ _sk_load_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 44e3 <_sk_load_565_sse2+0xc3>
+ .byte 116,47 // je 4725 <_sk_load_565_sse2+0xc3>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 44d0 <_sk_load_565_sse2+0xb0>
+ .byte 116,19 // je 4712 <_sk_load_565_sse2+0xb0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,146 // jne 4454 <_sk_load_565_sse2+0x34>
+ .byte 117,146 // jne 4696 <_sk_load_565_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,113,255,255,255 // jmp 4454 <_sk_load_565_sse2+0x34>
+ .byte 233,113,255,255,255 // jmp 4696 <_sk_load_565_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,214 // movd %esi,%xmm2
- .byte 233,100,255,255,255 // jmp 4454 <_sk_load_565_sse2+0x34>
+ .byte 233,100,255,255,255 // jmp 4696 <_sk_load_565_sse2+0x34>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -64218,7 +64865,7 @@ _sk_load_565_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 44fe <_sk_load_565_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4740 <_sk_load_565_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64230,24 +64877,24 @@ _sk_load_565_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,113 // jne 458c <_sk_load_565_dst_sse2+0x9c>
+ .byte 117,113 // jne 47ce <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,114,179,0,0 // movdqa 0xb372(%edx),%xmm5
+ .byte 102,15,111,170,112,179,0,0 // movdqa 0xb370(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,130,179,0,0 // mulps 0xb382(%edx),%xmm5
+ .byte 15,89,170,128,179,0,0 // mulps 0xb380(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,146,179,0,0 // movdqa 0xb392(%edx),%xmm5
+ .byte 102,15,111,170,144,179,0,0 // movdqa 0xb390(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,162,179,0,0 // mulps 0xb3a2(%edx),%xmm5
+ .byte 15,89,170,160,179,0,0 // mulps 0xb3a0(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,178,179,0,0 // pand 0xb3b2(%edx),%xmm4
+ .byte 102,15,219,162,176,179,0,0 // pand 0xb3b0(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,194,179,0,0 // mulps 0xb3c2(%edx),%xmm4
+ .byte 15,89,162,192,179,0,0 // mulps 0xb3c0(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,98,177,0,0 // movaps 0xb162(%edx),%xmm4
+ .byte 15,40,162,96,177,0,0 // movaps 0xb160(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -64262,22 +64909,22 @@ _sk_load_565_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 45c3 <_sk_load_565_dst_sse2+0xd3>
+ .byte 116,47 // je 4805 <_sk_load_565_dst_sse2+0xd3>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 45b0 <_sk_load_565_dst_sse2+0xc0>
+ .byte 116,19 // je 47f2 <_sk_load_565_dst_sse2+0xc0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,130 // jne 4524 <_sk_load_565_dst_sse2+0x34>
+ .byte 117,130 // jne 4766 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,97,255,255,255 // jmp 4524 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,97,255,255,255 // jmp 4766 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,84,255,255,255 // jmp 4524 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,84,255,255,255 // jmp 4766 <_sk_load_565_dst_sse2+0x34>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -64327,25 +64974,25 @@ _sk_gather_565_sse2:
.byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 232,0,0,0,0 // call 4680 <_sk_gather_565_sse2+0xb0>
+ .byte 232,0,0,0,0 // call 48c2 <_sk_gather_565_sse2+0xb0>
.byte 90 // pop %edx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,240,177,0,0 // movdqa 0xb1f0(%edx),%xmm0
+ .byte 102,15,111,130,238,177,0,0 // movdqa 0xb1ee(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,0,178,0,0 // mulps 0xb200(%edx),%xmm0
- .byte 102,15,111,138,16,178,0,0 // movdqa 0xb210(%edx),%xmm1
+ .byte 15,89,130,254,177,0,0 // mulps 0xb1fe(%edx),%xmm0
+ .byte 102,15,111,138,14,178,0,0 // movdqa 0xb20e(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,32,178,0,0 // mulps 0xb220(%edx),%xmm1
- .byte 102,15,219,146,48,178,0,0 // pand 0xb230(%edx),%xmm2
+ .byte 15,89,138,30,178,0,0 // mulps 0xb21e(%edx),%xmm1
+ .byte 102,15,219,146,46,178,0,0 // pand 0xb22e(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,64,178,0,0 // mulps 0xb240(%edx),%xmm2
+ .byte 15,89,146,62,178,0,0 // mulps 0xb23e(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,224,175,0,0 // movaps 0xafe0(%edx),%xmm3
+ .byte 15,40,154,222,175,0,0 // movaps 0xafde(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -64363,7 +65010,7 @@ _sk_store_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 46f3 <_sk_store_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4935 <_sk_store_565_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64373,8 +65020,8 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,109,179,0,0 // movaps 0xb36d(%edi),%xmm4
- .byte 15,40,175,125,179,0,0 // movaps 0xb37d(%edi),%xmm5
+ .byte 15,40,167,107,179,0,0 // movaps 0xb36b(%edi),%xmm4
+ .byte 15,40,175,123,179,0,0 // movaps 0xb37b(%edi),%xmm5
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,89,244 // mulps %xmm4,%xmm6
@@ -64394,7 +65041,7 @@ _sk_store_565_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 4787 <_sk_store_565_sse2+0xa2>
+ .byte 117,34 // jne 49c9 <_sk_store_565_sse2+0xa2>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -64414,20 +65061,20 @@ _sk_store_565_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 47bd <_sk_store_565_sse2+0xd8>
+ .byte 116,37 // je 49ff <_sk_store_565_sse2+0xd8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 47ac <_sk_store_565_sse2+0xc7>
+ .byte 116,15 // je 49ee <_sk_store_565_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 4774 <_sk_store_565_sse2+0x8f>
+ .byte 117,210 // jne 49b6 <_sk_store_565_sse2+0x8f>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 4774 <_sk_store_565_sse2+0x8f>
+ .byte 235,183 // jmp 49b6 <_sk_store_565_sse2+0x8f>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 4774 <_sk_store_565_sse2+0x8f>
+ .byte 235,173 // jmp 49b6 <_sk_store_565_sse2+0x8f>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -64439,7 +65086,7 @@ _sk_load_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 47d5 <_sk_load_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4a17 <_sk_load_4444_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64451,24 +65098,24 @@ _sk_load_4444_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,112 // jne 4862 <_sk_load_4444_sse2+0x9b>
+ .byte 117,112 // jne 4aa4 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,171,178,0,0 // movdqa 0xb2ab(%edx),%xmm0
+ .byte 102,15,111,130,169,178,0,0 // movdqa 0xb2a9(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,187,178,0,0 // mulps 0xb2bb(%edx),%xmm0
- .byte 102,15,111,138,203,178,0,0 // movdqa 0xb2cb(%edx),%xmm1
+ .byte 15,89,130,185,178,0,0 // mulps 0xb2b9(%edx),%xmm0
+ .byte 102,15,111,138,201,178,0,0 // movdqa 0xb2c9(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,219,178,0,0 // mulps 0xb2db(%edx),%xmm1
- .byte 102,15,111,146,235,178,0,0 // movdqa 0xb2eb(%edx),%xmm2
+ .byte 15,89,138,217,178,0,0 // mulps 0xb2d9(%edx),%xmm1
+ .byte 102,15,111,146,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,251,178,0,0 // mulps 0xb2fb(%edx),%xmm2
- .byte 102,15,219,154,11,179,0,0 // pand 0xb30b(%edx),%xmm3
+ .byte 15,89,146,249,178,0,0 // mulps 0xb2f9(%edx),%xmm2
+ .byte 102,15,219,154,9,179,0,0 // pand 0xb309(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,27,179,0,0 // mulps 0xb31b(%edx),%xmm3
+ .byte 15,89,154,25,179,0,0 // mulps 0xb319(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -64482,22 +65129,22 @@ _sk_load_4444_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4899 <_sk_load_4444_sse2+0xd2>
+ .byte 116,47 // je 4adb <_sk_load_4444_sse2+0xd2>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4886 <_sk_load_4444_sse2+0xbf>
+ .byte 116,19 // je 4ac8 <_sk_load_4444_sse2+0xbf>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,131 // jne 47fb <_sk_load_4444_sse2+0x34>
+ .byte 117,131 // jne 4a3d <_sk_load_4444_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,98,255,255,255 // jmp 47fb <_sk_load_4444_sse2+0x34>
+ .byte 233,98,255,255,255 // jmp 4a3d <_sk_load_4444_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,222 // movd %esi,%xmm3
- .byte 233,85,255,255,255 // jmp 47fb <_sk_load_4444_sse2+0x34>
+ .byte 233,85,255,255,255 // jmp 4a3d <_sk_load_4444_sse2+0x34>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -64509,7 +65156,7 @@ _sk_load_4444_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 48b4 <_sk_load_4444_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4af6 <_sk_load_4444_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64521,27 +65168,27 @@ _sk_load_4444_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,128,0,0,0 // jne 4955 <_sk_load_4444_dst_sse2+0xaf>
+ .byte 15,133,128,0,0,0 // jne 4b97 <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,204,177,0,0 // movdqa 0xb1cc(%edx),%xmm5
+ .byte 102,15,111,170,202,177,0,0 // movdqa 0xb1ca(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,220,177,0,0 // mulps 0xb1dc(%edx),%xmm5
+ .byte 15,89,170,218,177,0,0 // mulps 0xb1da(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,236,177,0,0 // movdqa 0xb1ec(%edx),%xmm5
+ .byte 102,15,111,170,234,177,0,0 // movdqa 0xb1ea(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,252,177,0,0 // mulps 0xb1fc(%edx),%xmm5
+ .byte 15,89,170,250,177,0,0 // mulps 0xb1fa(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,12,178,0,0 // movdqa 0xb20c(%edx),%xmm5
+ .byte 102,15,111,170,10,178,0,0 // movdqa 0xb20a(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,28,178,0,0 // mulps 0xb21c(%edx),%xmm5
+ .byte 15,89,170,26,178,0,0 // mulps 0xb21a(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,44,178,0,0 // pand 0xb22c(%edx),%xmm4
+ .byte 102,15,219,162,42,178,0,0 // pand 0xb22a(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,60,178,0,0 // mulps 0xb23c(%edx),%xmm4
+ .byte 15,89,162,58,178,0,0 // mulps 0xb23a(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -64556,22 +65203,22 @@ _sk_load_4444_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 4990 <_sk_load_4444_dst_sse2+0xea>
+ .byte 116,51 // je 4bd2 <_sk_load_4444_dst_sse2+0xea>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 497d <_sk_load_4444_dst_sse2+0xd7>
+ .byte 116,23 // je 4bbf <_sk_load_4444_dst_sse2+0xd7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,111,255,255,255 // jne 48de <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,133,111,255,255,255 // jne 4b20 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,78,255,255,255 // jmp 48de <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,78,255,255,255 // jmp 4b20 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,65,255,255,255 // jmp 48de <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,65,255,255,255 // jmp 4b20 <_sk_load_4444_dst_sse2+0x38>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -64622,25 +65269,25 @@ _sk_gather_4444_sse2:
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
.byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 232,0,0,0,0 // call 4a52 <_sk_gather_4444_sse2+0xb5>
+ .byte 232,0,0,0,0 // call 4c94 <_sk_gather_4444_sse2+0xb5>
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,46,176,0,0 // movdqa 0xb02e(%ecx),%xmm0
+ .byte 102,15,111,129,44,176,0,0 // movdqa 0xb02c(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,62,176,0,0 // mulps 0xb03e(%ecx),%xmm0
- .byte 102,15,111,137,78,176,0,0 // movdqa 0xb04e(%ecx),%xmm1
+ .byte 15,89,129,60,176,0,0 // mulps 0xb03c(%ecx),%xmm0
+ .byte 102,15,111,137,76,176,0,0 // movdqa 0xb04c(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,94,176,0,0 // mulps 0xb05e(%ecx),%xmm1
- .byte 102,15,111,145,110,176,0,0 // movdqa 0xb06e(%ecx),%xmm2
+ .byte 15,89,137,92,176,0,0 // mulps 0xb05c(%ecx),%xmm1
+ .byte 102,15,111,145,108,176,0,0 // movdqa 0xb06c(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,126,176,0,0 // mulps 0xb07e(%ecx),%xmm2
- .byte 102,15,219,153,142,176,0,0 // pand 0xb08e(%ecx),%xmm3
+ .byte 15,89,145,124,176,0,0 // mulps 0xb07c(%ecx),%xmm2
+ .byte 102,15,219,153,140,176,0,0 // pand 0xb08c(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,158,176,0,0 // mulps 0xb09e(%ecx),%xmm3
+ .byte 15,89,153,156,176,0,0 // mulps 0xb09c(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -64660,7 +65307,7 @@ _sk_store_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4acf <_sk_store_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4d11 <_sk_store_4444_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64670,7 +65317,7 @@ _sk_store_4444_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,49,176,0,0 // movaps 0xb031(%edi),%xmm4
+ .byte 15,40,167,47,176,0,0 // movaps 0xb02f(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -64696,7 +65343,7 @@ _sk_store_4444_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 4b72 <_sk_store_4444_sse2+0xb1>
+ .byte 117,34 // jne 4db4 <_sk_store_4444_sse2+0xb1>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -64716,20 +65363,20 @@ _sk_store_4444_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4ba8 <_sk_store_4444_sse2+0xe7>
+ .byte 116,37 // je 4dea <_sk_store_4444_sse2+0xe7>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4b97 <_sk_store_4444_sse2+0xd6>
+ .byte 116,15 // je 4dd9 <_sk_store_4444_sse2+0xd6>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 4b5f <_sk_store_4444_sse2+0x9e>
+ .byte 117,210 // jne 4da1 <_sk_store_4444_sse2+0x9e>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 4b5f <_sk_store_4444_sse2+0x9e>
+ .byte 235,183 // jmp 4da1 <_sk_store_4444_sse2+0x9e>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 4b5f <_sk_store_4444_sse2+0x9e>
+ .byte 235,173 // jmp 4da1 <_sk_store_4444_sse2+0x9e>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -64741,7 +65388,7 @@ _sk_load_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4bc0 <_sk_load_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4e02 <_sk_load_8888_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64753,13 +65400,13 @@ _sk_load_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4c44 <_sk_load_8888_sse2+0x92>
+ .byte 117,102 // jne 4e86 <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,96,171,0,0 // movdqa 0xab60(%edx),%xmm2
+ .byte 102,15,111,146,94,171,0,0 // movdqa 0xab5e(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,160,172,0,0 // movaps 0xaca0(%edx),%xmm4
+ .byte 15,40,162,158,172,0,0 // movaps 0xac9e(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -64787,18 +65434,18 @@ _sk_load_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4c6f <_sk_load_8888_sse2+0xbd>
+ .byte 116,35 // je 4eb1 <_sk_load_8888_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4c65 <_sk_load_8888_sse2+0xb3>
+ .byte 116,16 // je 4ea7 <_sk_load_8888_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4be3 <_sk_load_8888_sse2+0x31>
+ .byte 117,137 // jne 4e25 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4be3 <_sk_load_8888_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 4e25 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4be3 <_sk_load_8888_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 4e25 <_sk_load_8888_sse2+0x31>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -64810,7 +65457,7 @@ _sk_load_8888_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4c87 <_sk_load_8888_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4ec9 <_sk_load_8888_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64822,13 +65469,13 @@ _sk_load_8888_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 4d1b <_sk_load_8888_dst_sse2+0xa2>
+ .byte 117,118 // jne 4f5d <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,153,170,0,0 // movdqa 0xaa99(%edx),%xmm5
+ .byte 102,15,111,170,151,170,0,0 // movdqa 0xaa97(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,217,171,0,0 // movaps 0xabd9(%edx),%xmm7
+ .byte 15,40,186,215,171,0,0 // movaps 0xabd7(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -64860,18 +65507,18 @@ _sk_load_8888_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 4d4a <_sk_load_8888_dst_sse2+0xd1>
+ .byte 116,39 // je 4f8c <_sk_load_8888_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 4d40 <_sk_load_8888_dst_sse2+0xc7>
+ .byte 116,20 // je 4f82 <_sk_load_8888_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4caa <_sk_load_8888_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 4eec <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4caa <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 4eec <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4caa <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 4eec <_sk_load_8888_dst_sse2+0x31>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -64918,16 +65565,16 @@ _sk_gather_8888_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 4dfa <_sk_gather_8888_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 503c <_sk_gather_8888_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,38,169,0,0 // movdqa 0xa926(%ecx),%xmm2
+ .byte 102,15,111,145,36,169,0,0 // movdqa 0xa924(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,102,170,0,0 // movaps 0xaa66(%ecx),%xmm4
+ .byte 15,40,161,100,170,0,0 // movaps 0xaa64(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -64961,7 +65608,7 @@ _sk_store_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4e75 <_sk_store_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 50b7 <_sk_store_8888_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64971,7 +65618,7 @@ _sk_store_8888_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,187,168,0,0 // movaps 0xa8bb(%edi),%xmm4
+ .byte 15,40,167,185,168,0,0 // movaps 0xa8b9(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -64991,7 +65638,7 @@ _sk_store_8888_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 4ef2 <_sk_store_8888_sse2+0x8b>
+ .byte 117,24 // jne 5134 <_sk_store_8888_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65006,17 +65653,17 @@ _sk_store_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 4f16 <_sk_store_8888_sse2+0xaf>
+ .byte 116,28 // je 5158 <_sk_store_8888_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4f0f <_sk_store_8888_sse2+0xa8>
+ .byte 116,16 // je 5151 <_sk_store_8888_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 4edf <_sk_store_8888_sse2+0x78>
+ .byte 117,219 // jne 5121 <_sk_store_8888_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 4edf <_sk_store_8888_sse2+0x78>
+ .byte 235,201 // jmp 5121 <_sk_store_8888_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 4edf <_sk_store_8888_sse2+0x78>
+ .byte 235,194 // jmp 5121 <_sk_store_8888_sse2+0x78>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -65028,7 +65675,7 @@ _sk_load_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4f2b <_sk_load_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 516d <_sk_load_bgra_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65040,13 +65687,13 @@ _sk_load_bgra_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4faf <_sk_load_bgra_sse2+0x92>
+ .byte 117,102 // jne 51f1 <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,245,167,0,0 // movdqa 0xa7f5(%edx),%xmm0
+ .byte 102,15,111,130,243,167,0,0 // movdqa 0xa7f3(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,53,169,0,0 // movaps 0xa935(%edx),%xmm4
+ .byte 15,40,162,51,169,0,0 // movaps 0xa933(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -65074,18 +65721,18 @@ _sk_load_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4fda <_sk_load_bgra_sse2+0xbd>
+ .byte 116,35 // je 521c <_sk_load_bgra_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4fd0 <_sk_load_bgra_sse2+0xb3>
+ .byte 116,16 // je 5212 <_sk_load_bgra_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4f4e <_sk_load_bgra_sse2+0x31>
+ .byte 117,137 // jne 5190 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4f4e <_sk_load_bgra_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 5190 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4f4e <_sk_load_bgra_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 5190 <_sk_load_bgra_sse2+0x31>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -65097,7 +65744,7 @@ _sk_load_bgra_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4ff2 <_sk_load_bgra_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5234 <_sk_load_bgra_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65109,13 +65756,13 @@ _sk_load_bgra_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 5086 <_sk_load_bgra_dst_sse2+0xa2>
+ .byte 117,118 // jne 52c8 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,46,167,0,0 // movdqa 0xa72e(%edx),%xmm5
+ .byte 102,15,111,170,44,167,0,0 // movdqa 0xa72c(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,110,168,0,0 // movaps 0xa86e(%edx),%xmm7
+ .byte 15,40,186,108,168,0,0 // movaps 0xa86c(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -65147,18 +65794,18 @@ _sk_load_bgra_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 50b5 <_sk_load_bgra_dst_sse2+0xd1>
+ .byte 116,39 // je 52f7 <_sk_load_bgra_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 50ab <_sk_load_bgra_dst_sse2+0xc7>
+ .byte 116,20 // je 52ed <_sk_load_bgra_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 5015 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 5257 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 5015 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 5257 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 5015 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 5257 <_sk_load_bgra_dst_sse2+0x31>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -65205,16 +65852,16 @@ _sk_gather_bgra_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 5165 <_sk_gather_bgra_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 53a7 <_sk_gather_bgra_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,187,165,0,0 // movdqa 0xa5bb(%ecx),%xmm0
+ .byte 102,15,111,129,185,165,0,0 // movdqa 0xa5b9(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,251,166,0,0 // movaps 0xa6fb(%ecx),%xmm4
+ .byte 15,40,161,249,166,0,0 // movaps 0xa6f9(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -65248,7 +65895,7 @@ _sk_store_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 51e0 <_sk_store_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5422 <_sk_store_bgra_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65258,7 +65905,7 @@ _sk_store_bgra_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,80,165,0,0 // movaps 0xa550(%edi),%xmm4
+ .byte 15,40,167,78,165,0,0 // movaps 0xa54e(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -65278,7 +65925,7 @@ _sk_store_bgra_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 525d <_sk_store_bgra_sse2+0x8b>
+ .byte 117,24 // jne 549f <_sk_store_bgra_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65293,17 +65940,17 @@ _sk_store_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 5281 <_sk_store_bgra_sse2+0xaf>
+ .byte 116,28 // je 54c3 <_sk_store_bgra_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 527a <_sk_store_bgra_sse2+0xa8>
+ .byte 116,16 // je 54bc <_sk_store_bgra_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 524a <_sk_store_bgra_sse2+0x78>
+ .byte 117,219 // jne 548c <_sk_store_bgra_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 524a <_sk_store_bgra_sse2+0x78>
+ .byte 235,201 // jmp 548c <_sk_store_bgra_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 524a <_sk_store_bgra_sse2+0x78>
+ .byte 235,194 // jmp 548c <_sk_store_bgra_sse2+0x78>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -65315,7 +65962,7 @@ _sk_load_f16_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5296 <_sk_load_f16_sse2+0xe>
+ .byte 232,0,0,0,0 // call 54d8 <_sk_load_f16_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65327,7 +65974,7 @@ _sk_load_f16_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,173,1,0,0 // jne 5465 <_sk_load_f16_sse2+0x1dd>
+ .byte 15,133,173,1,0,0 // jne 56a7 <_sk_load_f16_sse2+0x1dd>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -65357,11 +66004,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,122,168,0,0 // movdqa 0xa87a(%edx),%xmm5
+ .byte 102,15,111,170,120,168,0,0 // movdqa 0xa878(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,138,168,0,0 // pand 0xa88a(%edx),%xmm1
- .byte 102,15,111,130,154,168,0,0 // movdqa 0xa89a(%edx),%xmm0
+ .byte 102,15,219,138,136,168,0,0 // pand 0xa888(%edx),%xmm1
+ .byte 102,15,111,130,152,168,0,0 // movdqa 0xa898(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -65373,7 +66020,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,138,168,0,0 // movdqa 0xa88a(%edx),%xmm3
+ .byte 102,15,111,154,136,168,0,0 // movdqa 0xa888(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -65386,7 +66033,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,154,168,0,0 // movdqa 0xa89a(%edx),%xmm2
+ .byte 102,15,111,146,152,168,0,0 // movdqa 0xa898(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -65401,7 +66048,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,170,168,0,0 // movdqa 0xa8aa(%edx),%xmm3
+ .byte 102,15,111,154,168,168,0,0 // movdqa 0xa8a8(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -65429,12 +66076,12 @@ _sk_load_f16_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,76,254,255,255 // je 52c3 <_sk_load_f16_sse2+0x3b>
+ .byte 15,132,76,254,255,255 // je 5505 <_sk_load_f16_sse2+0x3b>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,61,254,255,255 // jb 52c3 <_sk_load_f16_sse2+0x3b>
+ .byte 15,130,61,254,255,255 // jb 5505 <_sk_load_f16_sse2+0x3b>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,50,254,255,255 // jmp 52c3 <_sk_load_f16_sse2+0x3b>
+ .byte 233,50,254,255,255 // jmp 5505 <_sk_load_f16_sse2+0x3b>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -65450,7 +66097,7 @@ _sk_load_f16_dst_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 54b3 <_sk_load_f16_dst_sse2+0x22>
+ .byte 232,0,0,0,0 // call 56f5 <_sk_load_f16_dst_sse2+0x22>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65462,7 +66109,7 @@ _sk_load_f16_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,168,1,0,0 // jne 567d <_sk_load_f16_dst_sse2+0x1ec>
+ .byte 15,133,168,1,0,0 // jne 58bf <_sk_load_f16_dst_sse2+0x1ec>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -65490,18 +66137,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,93,166,0,0 // movdqa 0xa65d(%edx),%xmm7
+ .byte 102,15,111,186,91,166,0,0 // movdqa 0xa65b(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,109,166,0,0 // movdqa 0xa66d(%edx),%xmm3
+ .byte 102,15,111,154,107,166,0,0 // movdqa 0xa66b(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,125,166,0,0 // movdqa 0xa67d(%edx),%xmm4
+ .byte 102,15,111,162,123,166,0,0 // movdqa 0xa67b(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,141,166,0,0 // movdqa 0xa68d(%edx),%xmm2
+ .byte 102,15,111,146,139,166,0,0 // movdqa 0xa68b(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -65564,12 +66211,12 @@ _sk_load_f16_dst_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,81,254,255,255 // je 54e0 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,132,81,254,255,255 // je 5722 <_sk_load_f16_dst_sse2+0x4f>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,66,254,255,255 // jb 54e0 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,130,66,254,255,255 // jb 5722 <_sk_load_f16_dst_sse2+0x4f>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,55,254,255,255 // jmp 54e0 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 233,55,254,255,255 // jmp 5722 <_sk_load_f16_dst_sse2+0x4f>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -65616,7 +66263,7 @@ _sk_gather_f16_sse2:
.byte 243,15,126,28,202 // movq (%edx,%ecx,8),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 243,15,126,12,202 // movq (%edx,%ecx,8),%xmm1
- .byte 232,0,0,0,0 // call 574f <_sk_gather_f16_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 5991 <_sk_gather_f16_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
@@ -65647,11 +66294,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,193,163,0,0 // movdqa 0xa3c1(%ecx),%xmm6
+ .byte 102,15,111,177,191,163,0,0 // movdqa 0xa3bf(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,209,163,0,0 // pand 0xa3d1(%ecx),%xmm1
- .byte 102,15,111,129,225,163,0,0 // movdqa 0xa3e1(%ecx),%xmm0
+ .byte 102,15,219,137,207,163,0,0 // pand 0xa3cf(%ecx),%xmm1
+ .byte 102,15,111,129,223,163,0,0 // movdqa 0xa3df(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -65662,7 +66309,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,209,163,0,0 // movdqa 0xa3d1(%ecx),%xmm3
+ .byte 102,15,111,153,207,163,0,0 // movdqa 0xa3cf(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -65676,7 +66323,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,225,163,0,0 // movdqa 0xa3e1(%ecx),%xmm2
+ .byte 102,15,111,145,223,163,0,0 // movdqa 0xa3df(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -65685,12 +66332,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,209,163,0,0 // pand 0xa3d1(%ecx),%xmm7
+ .byte 102,15,219,185,207,163,0,0 // pand 0xa3cf(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,241,163,0,0 // movdqa 0xa3f1(%ecx),%xmm4
+ .byte 102,15,111,161,239,163,0,0 // movdqa 0xa3ef(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -65727,24 +66374,24 @@ _sk_store_f16_sse2:
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 5913 <_sk_store_f16_sse2+0x19>
+ .byte 232,0,0,0,0 // call 5b55 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,61,162,0,0 // movdqa 0xa23d(%eax),%xmm3
+ .byte 102,15,111,152,59,162,0,0 // movdqa 0xa23b(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,109,162,0,0 // movdqa 0xa26d(%eax),%xmm1
+ .byte 102,15,111,136,107,162,0,0 // movdqa 0xa26b(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,77,162,0,0 // movdqa 0xa24d(%eax),%xmm7
+ .byte 102,15,111,184,75,162,0,0 // movdqa 0xa24b(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,93,162,0,0 // movdqa 0xa25d(%eax),%xmm5
+ .byte 102,15,111,168,91,162,0,0 // movdqa 0xa25b(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,237,158,0,0 // movdqa 0x9eed(%eax),%xmm0
+ .byte 102,15,111,128,235,158,0,0 // movdqa 0x9eeb(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -65806,7 +66453,7 @@ _sk_store_f16_sse2:
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,98,198 // punpckldq %xmm6,%xmm0
.byte 133,255 // test %edi,%edi
- .byte 117,48 // jne 5a94 <_sk_store_f16_sse2+0x19a>
+ .byte 117,48 // jne 5cd6 <_sk_store_f16_sse2+0x19a>
.byte 15,17,4,214 // movups %xmm0,(%esi,%edx,8)
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8)
@@ -65826,13 +66473,13 @@ _sk_store_f16_sse2:
.byte 195 // ret
.byte 102,15,214,4,214 // movq %xmm0,(%esi,%edx,8)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 5a72 <_sk_store_f16_sse2+0x178>
+ .byte 116,212 // je 5cb4 <_sk_store_f16_sse2+0x178>
.byte 102,15,23,68,214,8 // movhpd %xmm0,0x8(%esi,%edx,8)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 5a72 <_sk_store_f16_sse2+0x178>
+ .byte 114,201 // jb 5cb4 <_sk_store_f16_sse2+0x178>
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
- .byte 235,189 // jmp 5a72 <_sk_store_f16_sse2+0x178>
+ .byte 235,189 // jmp 5cb4 <_sk_store_f16_sse2+0x178>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -65855,9 +66502,9 @@ _sk_load_u16_be_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 193,230,2 // shl $0x2,%esi
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 5ae0 <_sk_load_u16_be_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 5d22 <_sk_load_u16_be_sse2+0x2b>
.byte 90 // pop %edx
- .byte 15,133,11,1,0,0 // jne 5bf2 <_sk_load_u16_be_sse2+0x13d>
+ .byte 15,133,11,1,0,0 // jne 5e34 <_sk_load_u16_be_sse2+0x13d>
.byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
.byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -65878,7 +66525,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,0,158,0,0 // movaps 0x9e00(%edx),%xmm4
+ .byte 15,40,162,254,157,0,0 // movaps 0x9dfe(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -65928,12 +66575,12 @@ _sk_load_u16_be_sse2:
.byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,238,254,255,255 // je 5af2 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,132,238,254,255,255 // je 5d34 <_sk_load_u16_be_sse2+0x3d>
.byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,223,254,255,255 // jb 5af2 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,130,223,254,255,255 // jb 5d34 <_sk_load_u16_be_sse2+0x3d>
.byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
- .byte 233,212,254,255,255 // jmp 5af2 <_sk_load_u16_be_sse2+0x3d>
+ .byte 233,212,254,255,255 // jmp 5d34 <_sk_load_u16_be_sse2+0x3d>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -65955,9 +66602,9 @@ _sk_load_rgb_u16_be_sse2:
.byte 3,50 // add (%edx),%esi
.byte 107,25,3 // imul $0x3,(%ecx),%ebx
.byte 133,255 // test %edi,%edi
- .byte 232,0,0,0,0 // call 5c47 <_sk_load_rgb_u16_be_sse2+0x29>
+ .byte 232,0,0,0,0 // call 5e89 <_sk_load_rgb_u16_be_sse2+0x29>
.byte 90 // pop %edx
- .byte 15,133,240,0,0,0 // jne 5d3e <_sk_load_rgb_u16_be_sse2+0x120>
+ .byte 15,133,240,0,0,0 // jne 5f80 <_sk_load_rgb_u16_be_sse2+0x120>
.byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
.byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -65982,7 +66629,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,153,156,0,0 // movaps 0x9c99(%edx),%xmm5
+ .byte 15,40,170,151,156,0,0 // movaps 0x9c97(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -66008,7 +66655,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,25,154,0,0 // movaps 0x9a19(%edx),%xmm3
+ .byte 15,40,154,23,154,0,0 // movaps 0x9a17(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -66022,20 +66669,20 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,13 // jne 5d60 <_sk_load_rgb_u16_be_sse2+0x142>
+ .byte 117,13 // jne 5fa2 <_sk_load_rgb_u16_be_sse2+0x142>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,16,255,255,255 // jmp 5c70 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,16,255,255,255 // jmp 5eb2 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
.byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,18 // jb 5d88 <_sk_load_rgb_u16_be_sse2+0x16a>
+ .byte 114,18 // jb 5fca <_sk_load_rgb_u16_be_sse2+0x16a>
.byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
.byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- .byte 233,232,254,255,255 // jmp 5c70 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,232,254,255,255 // jmp 5eb2 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,223,254,255,255 // jmp 5c70 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,223,254,255,255 // jmp 5eb2 <_sk_load_rgb_u16_be_sse2+0x52>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -66045,7 +66692,7 @@ _sk_store_u16_be_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 232,0,0,0,0 // call 5d9b <_sk_store_u16_be_sse2+0xa>
+ .byte 232,0,0,0,0 // call 5fdd <_sk_store_u16_be_sse2+0xa>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66055,7 +66702,7 @@ _sk_store_u16_be_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,183,245,157,0,0 // movaps 0x9df5(%edi),%xmm6
+ .byte 15,40,183,243,157,0,0 // movaps 0x9df3(%edi),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 193,230,2 // shl $0x2,%esi
.byte 15,40,224 // movaps %xmm0,%xmm4
@@ -66102,7 +66749,7 @@ _sk_store_u16_be_sse2:
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,98,245 // punpckldq %xmm5,%xmm6
.byte 133,255 // test %edi,%edi
- .byte 117,32 // jne 5e97 <_sk_store_u16_be_sse2+0x106>
+ .byte 117,32 // jne 60d9 <_sk_store_u16_be_sse2+0x106>
.byte 15,17,52,114 // movups %xmm6,(%edx,%esi,2)
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
.byte 243,15,127,100,114,16 // movdqu %xmm4,0x10(%edx,%esi,2)
@@ -66118,13 +66765,13 @@ _sk_store_u16_be_sse2:
.byte 195 // ret
.byte 102,15,214,52,114 // movq %xmm6,(%edx,%esi,2)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,228 // je 5e85 <_sk_store_u16_be_sse2+0xf4>
+ .byte 116,228 // je 60c7 <_sk_store_u16_be_sse2+0xf4>
.byte 102,15,23,116,114,8 // movhpd %xmm6,0x8(%edx,%esi,2)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,217 // jb 5e85 <_sk_store_u16_be_sse2+0xf4>
+ .byte 114,217 // jb 60c7 <_sk_store_u16_be_sse2+0xf4>
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
.byte 102,15,214,100,114,16 // movq %xmm4,0x10(%edx,%esi,2)
- .byte 235,205 // jmp 5e85 <_sk_store_u16_be_sse2+0xf4>
+ .byte 235,205 // jmp 60c7 <_sk_store_u16_be_sse2+0xf4>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -66147,7 +66794,7 @@ _sk_load_f32_sse2:
.byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,71 // jne 5f2f <_sk_load_f32_sse2+0x77>
+ .byte 117,71 // jne 6171 <_sk_load_f32_sse2+0x77>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
@@ -66175,17 +66822,17 @@ _sk_load_f32_sse2:
.byte 195 // ret
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 5f3f <_sk_load_f32_sse2+0x87>
+ .byte 117,8 // jne 6181 <_sk_load_f32_sse2+0x87>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,184 // jmp 5ef7 <_sk_load_f32_sse2+0x3f>
+ .byte 235,184 // jmp 6139 <_sk_load_f32_sse2+0x3f>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 5f50 <_sk_load_f32_sse2+0x98>
+ .byte 114,7 // jb 6192 <_sk_load_f32_sse2+0x98>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,167 // jmp 5ef7 <_sk_load_f32_sse2+0x3f>
+ .byte 235,167 // jmp 6139 <_sk_load_f32_sse2+0x3f>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,162 // jmp 5ef7 <_sk_load_f32_sse2+0x3f>
+ .byte 235,162 // jmp 6139 <_sk_load_f32_sse2+0x3f>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -66211,7 +66858,7 @@ _sk_load_f32_dst_sse2:
.byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,97 // jne 5ff1 <_sk_load_f32_dst_sse2+0x9c>
+ .byte 117,97 // jne 6233 <_sk_load_f32_dst_sse2+0x9c>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
@@ -66245,17 +66892,17 @@ _sk_load_f32_dst_sse2:
.byte 195 // ret
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 6001 <_sk_load_f32_dst_sse2+0xac>
+ .byte 117,8 // jne 6243 <_sk_load_f32_dst_sse2+0xac>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,158 // jmp 5f9f <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,158 // jmp 61e1 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 6012 <_sk_load_f32_dst_sse2+0xbd>
+ .byte 114,7 // jb 6254 <_sk_load_f32_dst_sse2+0xbd>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,141 // jmp 5f9f <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,141 // jmp 61e1 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,136 // jmp 5f9f <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,136 // jmp 61e1 <_sk_load_f32_dst_sse2+0x4a>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -66293,7 +66940,7 @@ _sk_store_f32_sse2:
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
.byte 133,255 // test %edi,%edi
- .byte 117,40 // jne 609d <_sk_store_f32_sse2+0x86>
+ .byte 117,40 // jne 62df <_sk_store_f32_sse2+0x86>
.byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
@@ -66310,12 +66957,12 @@ _sk_store_f32_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,232 // je 608a <_sk_store_f32_sse2+0x73>
+ .byte 116,232 // je 62cc <_sk_store_f32_sse2+0x73>
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,222 // jb 608a <_sk_store_f32_sse2+0x73>
+ .byte 114,222 // jb 62cc <_sk_store_f32_sse2+0x73>
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 235,214 // jmp 608a <_sk_store_f32_sse2+0x73>
+ .byte 235,214 // jmp 62cc <_sk_store_f32_sse2+0x73>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -66324,7 +66971,7 @@ _sk_repeat_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 60bf <_sk_repeat_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6301 <_sk_repeat_x_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -66335,7 +66982,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,161,149,0,0 // andps 0x95a1(%eax),%xmm5
+ .byte 15,84,168,159,149,0,0 // andps 0x959f(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -66356,7 +67003,7 @@ _sk_repeat_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6111 <_sk_repeat_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6353 <_sk_repeat_y_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -66367,7 +67014,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,79,149,0,0 // andps 0x954f(%eax),%xmm5
+ .byte 15,84,168,77,149,0,0 // andps 0x954d(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -66388,7 +67035,7 @@ _sk_mirror_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6163 <_sk_mirror_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 63a5 <_sk_mirror_x_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -66397,13 +67044,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,221,156,0,0 // mulss 0x9cdd(%ecx),%xmm5
+ .byte 243,15,89,169,219,156,0,0 // mulss 0x9cdb(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,253,148,0,0 // andps 0x94fd(%ecx),%xmm5
+ .byte 15,84,169,251,148,0,0 // andps 0x94fb(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -66429,7 +67076,7 @@ _sk_mirror_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 61d7 <_sk_mirror_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6419 <_sk_mirror_y_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -66438,13 +67085,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,105,156,0,0 // mulss 0x9c69(%ecx),%xmm5
+ .byte 243,15,89,169,103,156,0,0 // mulss 0x9c67(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,137,148,0,0 // andps 0x9489(%ecx),%xmm5
+ .byte 15,84,169,135,148,0,0 // andps 0x9487(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -66470,12 +67117,12 @@ _sk_clamp_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 624b <_sk_clamp_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 648d <_sk_clamp_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,21,148,0,0 // minps 0x9415(%eax),%xmm4
+ .byte 15,93,160,19,148,0,0 // minps 0x9413(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -66493,14 +67140,14 @@ _sk_repeat_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 627b <_sk_repeat_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 64bd <_sk_repeat_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,229,147,0,0 // movaps 0x93e5(%eax),%xmm7
+ .byte 15,40,184,227,147,0,0 // movaps 0x93e3(%eax),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -66524,16 +67171,16 @@ _sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 62c5 <_sk_mirror_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6507 <_sk_mirror_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,160,11,148,0,0 // movaps 0x940b(%eax),%xmm4
+ .byte 15,40,160,9,148,0,0 // movaps 0x9409(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,139,147,0,0 // movaps 0x938b(%eax),%xmm5
+ .byte 15,40,168,137,147,0,0 // movaps 0x9389(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,155,147,0,0 // movaps 0x939b(%eax),%xmm7
+ .byte 15,40,184,153,147,0,0 // movaps 0x9399(%eax),%xmm7
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -66563,13 +67210,13 @@ _sk_luminance_to_alpha_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 632f <_sk_luminance_to_alpha_sse2+0xe>
+ .byte 232,0,0,0,0 // call 6571 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,113,152,0,0 // mulps 0x9871(%eax),%xmm0
- .byte 15,89,136,129,152,0,0 // mulps 0x9881(%eax),%xmm1
+ .byte 15,89,128,111,152,0,0 // mulps 0x986f(%eax),%xmm0
+ .byte 15,89,136,127,152,0,0 // mulps 0x987f(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,145,152,0,0 // mulps 0x9891(%eax),%xmm3
+ .byte 15,89,152,143,152,0,0 // mulps 0x988f(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -66956,7 +67603,7 @@ _sk_evenly_spaced_gradient_sse2:
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 67c5 <_sk_evenly_spaced_gradient_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6a07 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -66965,12 +67612,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,11,148,0,0 // movdqa 0x940b(%edx),%xmm2
+ .byte 102,15,111,146,9,148,0,0 // movdqa 0x9409(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,203,145,0,0 // por 0x91cb(%edx),%xmm2
+ .byte 102,15,235,146,201,145,0,0 // por 0x91c9(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,27,148,0,0 // por 0x941b(%edx),%xmm1
- .byte 15,88,138,43,148,0,0 // addps 0x942b(%edx),%xmm1
+ .byte 102,15,235,138,25,148,0,0 // por 0x9419(%edx),%xmm1
+ .byte 15,88,138,41,148,0,0 // addps 0x9429(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -67084,7 +67731,7 @@ _sk_gradient_sse2:
.byte 139,10 // mov (%edx),%ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,249,2 // cmp $0x2,%ecx
- .byte 114,33 // jb 69ad <_sk_gradient_sse2+0x3a>
+ .byte 114,33 // jb 6bef <_sk_gradient_sse2+0x3a>
.byte 139,114,36 // mov 0x24(%edx),%esi
.byte 73 // dec %ecx
.byte 131,198,4 // add $0x4,%esi
@@ -67095,7 +67742,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 131,198,4 // add $0x4,%esi
.byte 73 // dec %ecx
- .byte 117,234 // jne 6997 <_sk_gradient_sse2+0x24>
+ .byte 117,234 // jne 6bd9 <_sk_gradient_sse2+0x24>
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -67248,7 +67895,7 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 6bb5 <_sk_xy_to_unit_angle_sse2+0x18>
+ .byte 232,0,0,0,0 // call 6df7 <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -67263,30 +67910,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,75,144,0,0 // movaps 0x904b(%eax),%xmm0
+ .byte 15,40,128,73,144,0,0 // movaps 0x9049(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,91,144,0,0 // addps 0x905b(%eax),%xmm0
+ .byte 15,88,128,89,144,0,0 // addps 0x9059(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,107,144,0,0 // addps 0x906b(%eax),%xmm0
+ .byte 15,88,128,105,144,0,0 // addps 0x9069(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,123,144,0,0 // addps 0x907b(%eax),%xmm0
+ .byte 15,88,128,121,144,0,0 // addps 0x9079(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,139,144,0,0 // movaps 0x908b(%eax),%xmm6
+ .byte 15,40,176,137,144,0,0 // movaps 0x9089(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,155,138,0,0 // movaps 0x8a9b(%eax),%xmm0
+ .byte 15,40,128,153,138,0,0 // movaps 0x8a99(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,171,138,0,0 // movaps 0x8aab(%eax),%xmm5
+ .byte 15,40,168,169,138,0,0 // movaps 0x8aa9(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -67347,15 +67994,15 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6cd2 <_sk_xy_to_2pt_conical_quadratic_first_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6f14 <_sk_xy_to_2pt_conical_quadratic_first_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,126,143,0,0 // mulps 0x8f7e(%edx),%xmm4
- .byte 15,89,130,142,143,0,0 // mulps 0x8f8e(%edx),%xmm0
+ .byte 15,89,162,124,143,0,0 // mulps 0x8f7c(%edx),%xmm4
+ .byte 15,89,130,140,143,0,0 // mulps 0x8f8c(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -67364,7 +68011,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,126,137,0,0 // mulps 0x897e(%edx),%xmm0
+ .byte 15,89,130,124,137,0,0 // mulps 0x897c(%edx),%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -67393,25 +68040,25 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6d5d <_sk_xy_to_2pt_conical_quadratic_second_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6f9f <_sk_xy_to_2pt_conical_quadratic_second_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,243,142,0,0 // mulps 0x8ef3(%edx),%xmm4
- .byte 15,89,130,3,143,0,0 // mulps 0x8f03(%edx),%xmm0
+ .byte 15,89,162,241,142,0,0 // mulps 0x8ef1(%edx),%xmm4
+ .byte 15,89,130,1,143,0,0 // mulps 0x8f01(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,81,197 // sqrtps %xmm5,%xmm0
- .byte 15,87,162,243,141,0,0 // xorps 0x8df3(%edx),%xmm4
+ .byte 15,87,162,241,141,0,0 // xorps 0x8df1(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,243,136,0,0 // mulps 0x88f3(%edx),%xmm0
+ .byte 15,89,130,241,136,0,0 // mulps 0x88f1(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -67429,7 +68076,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6dc9 <_sk_xy_to_2pt_conical_linear_sse2+0xb>
+ .byte 232,0,0,0,0 // call 700b <_sk_xy_to_2pt_conical_linear_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -67438,7 +68085,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,135,142,0,0 // mulps 0x8e87(%ecx),%xmm5
+ .byte 15,89,169,133,142,0,0 // mulps 0x8e85(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -67446,7 +68093,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,135,141,0,0 // xorps 0x8d87(%ecx),%xmm0
+ .byte 15,87,129,133,141,0,0 // xorps 0x8d85(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -67523,16 +68170,16 @@ _sk_save_xy_sse2:
.byte 131,236,24 // sub $0x18,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6eb2 <_sk_save_xy_sse2+0x12>
+ .byte 232,0,0,0,0 // call 70f4 <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,158,135,0,0 // movaps 0x879e(%eax),%xmm4
+ .byte 15,40,160,156,135,0,0 // movaps 0x879c(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,174,135,0,0 // movaps 0x87ae(%eax),%xmm2
+ .byte 15,40,144,172,135,0,0 // movaps 0x87ac(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -67607,15 +68254,15 @@ _sk_bilinear_nx_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f9a <_sk_bilinear_nx_sse2+0xa>
+ .byte 232,0,0,0,0 // call 71dc <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,214,140,0,0 // addps 0x8cd6(%eax),%xmm0
- .byte 15,40,168,198,134,0,0 // movaps 0x86c6(%eax),%xmm5
+ .byte 15,88,128,212,140,0,0 // addps 0x8cd4(%eax),%xmm0
+ .byte 15,40,168,196,134,0,0 // movaps 0x86c4(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -67636,14 +68283,14 @@ _sk_bilinear_px_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6fe0 <_sk_bilinear_px_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7222 <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,112,134,0,0 // addps 0x8670(%eax),%xmm0
+ .byte 15,88,128,110,134,0,0 // addps 0x866e(%eax),%xmm0
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -67663,15 +68310,15 @@ _sk_bilinear_ny_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 701c <_sk_bilinear_ny_sse2+0xa>
+ .byte 232,0,0,0,0 // call 725e <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,84,140,0,0 // addps 0x8c54(%eax),%xmm1
- .byte 15,40,168,68,134,0,0 // movaps 0x8644(%eax),%xmm5
+ .byte 15,88,136,82,140,0,0 // addps 0x8c52(%eax),%xmm1
+ .byte 15,40,168,66,134,0,0 // movaps 0x8642(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -67692,14 +68339,14 @@ _sk_bilinear_py_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7063 <_sk_bilinear_py_sse2+0xa>
+ .byte 232,0,0,0,0 // call 72a5 <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,237,133,0,0 // addps 0x85ed(%eax),%xmm1
+ .byte 15,88,136,235,133,0,0 // addps 0x85eb(%eax),%xmm1
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -67719,20 +68366,20 @@ _sk_bicubic_n3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 70a0 <_sk_bicubic_n3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 72e2 <_sk_bicubic_n3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,224,139,0,0 // addps 0x8be0(%eax),%xmm0
- .byte 15,40,168,192,133,0,0 // movaps 0x85c0(%eax),%xmm5
+ .byte 15,88,128,222,139,0,0 // addps 0x8bde(%eax),%xmm0
+ .byte 15,40,168,190,133,0,0 // movaps 0x85be(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,240,139,0,0 // mulps 0x8bf0(%eax),%xmm5
- .byte 15,88,168,176,135,0,0 // addps 0x87b0(%eax),%xmm5
+ .byte 15,89,168,238,139,0,0 // mulps 0x8bee(%eax),%xmm5
+ .byte 15,88,168,174,135,0,0 // addps 0x87ae(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -67753,23 +68400,23 @@ _sk_bicubic_n1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 70fd <_sk_bicubic_n1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 733f <_sk_bicubic_n1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,115,139,0,0 // addps 0x8b73(%eax),%xmm0
- .byte 15,40,168,99,133,0,0 // movaps 0x8563(%eax),%xmm5
+ .byte 15,88,128,113,139,0,0 // addps 0x8b71(%eax),%xmm0
+ .byte 15,40,168,97,133,0,0 // movaps 0x8561(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,163,139,0,0 // movaps 0x8ba3(%eax),%xmm4
+ .byte 15,40,160,161,139,0,0 // movaps 0x8ba1(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,179,139,0,0 // addps 0x8bb3(%eax),%xmm4
+ .byte 15,88,160,177,139,0,0 // addps 0x8bb1(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,83,133,0,0 // addps 0x8553(%eax),%xmm4
+ .byte 15,88,160,81,133,0,0 // addps 0x8551(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,195,139,0,0 // addps 0x8bc3(%eax),%xmm4
+ .byte 15,88,160,193,139,0,0 // addps 0x8bc1(%eax),%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -67789,22 +68436,22 @@ _sk_bicubic_p1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7168 <_sk_bicubic_p1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 73aa <_sk_bicubic_p1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,232,132,0,0 // movaps 0x84e8(%eax),%xmm4
+ .byte 15,40,160,230,132,0,0 // movaps 0x84e6(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,56,139,0,0 // movaps 0x8b38(%eax),%xmm6
+ .byte 15,40,176,54,139,0,0 // movaps 0x8b36(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,72,139,0,0 // addps 0x8b48(%eax),%xmm6
+ .byte 15,88,176,70,139,0,0 // addps 0x8b46(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,88,139,0,0 // addps 0x8b58(%eax),%xmm6
+ .byte 15,88,176,86,139,0,0 // addps 0x8b56(%eax),%xmm6
.byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -67824,18 +68471,18 @@ _sk_bicubic_p3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 71c8 <_sk_bicubic_p3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 740a <_sk_bicubic_p3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,232,138,0,0 // addps 0x8ae8(%eax),%xmm0
+ .byte 15,88,128,230,138,0,0 // addps 0x8ae6(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,200,138,0,0 // mulps 0x8ac8(%eax),%xmm4
- .byte 15,88,160,136,134,0,0 // addps 0x8688(%eax),%xmm4
+ .byte 15,89,160,198,138,0,0 // mulps 0x8ac6(%eax),%xmm4
+ .byte 15,88,160,134,134,0,0 // addps 0x8686(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -67856,20 +68503,20 @@ _sk_bicubic_n3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 721b <_sk_bicubic_n3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 745d <_sk_bicubic_n3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,101,138,0,0 // addps 0x8a65(%eax),%xmm1
- .byte 15,40,168,69,132,0,0 // movaps 0x8445(%eax),%xmm5
+ .byte 15,88,136,99,138,0,0 // addps 0x8a63(%eax),%xmm1
+ .byte 15,40,168,67,132,0,0 // movaps 0x8443(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,117,138,0,0 // mulps 0x8a75(%eax),%xmm5
- .byte 15,88,168,53,134,0,0 // addps 0x8635(%eax),%xmm5
+ .byte 15,89,168,115,138,0,0 // mulps 0x8a73(%eax),%xmm5
+ .byte 15,88,168,51,134,0,0 // addps 0x8633(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -67890,23 +68537,23 @@ _sk_bicubic_n1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7279 <_sk_bicubic_n1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 74bb <_sk_bicubic_n1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,247,137,0,0 // addps 0x89f7(%eax),%xmm1
- .byte 15,40,168,231,131,0,0 // movaps 0x83e7(%eax),%xmm5
+ .byte 15,88,136,245,137,0,0 // addps 0x89f5(%eax),%xmm1
+ .byte 15,40,168,229,131,0,0 // movaps 0x83e5(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,39,138,0,0 // movaps 0x8a27(%eax),%xmm4
+ .byte 15,40,160,37,138,0,0 // movaps 0x8a25(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,55,138,0,0 // addps 0x8a37(%eax),%xmm4
+ .byte 15,88,160,53,138,0,0 // addps 0x8a35(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,215,131,0,0 // addps 0x83d7(%eax),%xmm4
+ .byte 15,88,160,213,131,0,0 // addps 0x83d5(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,71,138,0,0 // addps 0x8a47(%eax),%xmm4
+ .byte 15,88,160,69,138,0,0 // addps 0x8a45(%eax),%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -67926,22 +68573,22 @@ _sk_bicubic_p1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 72e5 <_sk_bicubic_p1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7527 <_sk_bicubic_p1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,107,131,0,0 // movaps 0x836b(%eax),%xmm4
+ .byte 15,40,160,105,131,0,0 // movaps 0x8369(%eax),%xmm4
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,187,137,0,0 // movaps 0x89bb(%eax),%xmm6
+ .byte 15,40,176,185,137,0,0 // movaps 0x89b9(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,203,137,0,0 // addps 0x89cb(%eax),%xmm6
+ .byte 15,88,176,201,137,0,0 // addps 0x89c9(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,219,137,0,0 // addps 0x89db(%eax),%xmm6
+ .byte 15,88,176,217,137,0,0 // addps 0x89d9(%eax),%xmm6
.byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -67961,18 +68608,18 @@ _sk_bicubic_p3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7346 <_sk_bicubic_p3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7588 <_sk_bicubic_p3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,106,137,0,0 // addps 0x896a(%eax),%xmm1
+ .byte 15,88,136,104,137,0,0 // addps 0x8968(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,74,137,0,0 // mulps 0x894a(%eax),%xmm4
- .byte 15,88,160,10,133,0,0 // addps 0x850a(%eax),%xmm4
+ .byte 15,89,160,72,137,0,0 // mulps 0x8948(%eax),%xmm4
+ .byte 15,88,160,8,133,0,0 // addps 0x8508(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -68115,7 +68762,7 @@ _sk_clut_3D_sse2:
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 752c <_sk_clut_3D_sse2+0xee>
+ .byte 232,0,0,0,0 // call 776e <_sk_clut_3D_sse2+0xee>
.byte 90 // pop %edx
.byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
.byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
@@ -68123,7 +68770,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,180,135,0,0 // movdqa 0x87b4(%edx),%xmm4
+ .byte 102,15,111,162,178,135,0,0 // movdqa 0x87b2(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -68163,7 +68810,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,116,129,0,0 // movdqa 0x8174(%edx),%xmm0
+ .byte 102,15,111,130,114,129,0,0 // movdqa 0x8172(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -68180,7 +68827,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,164,135,0,0 // movaps 0x87a4(%edx),%xmm0
+ .byte 15,40,130,162,135,0,0 // movaps 0x87a2(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -68800,7 +69447,7 @@ _sk_clut_4D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 80b8 <_sk_clut_4D_sse2+0x165>
+ .byte 232,0,0,0,0 // call 82fa <_sk_clut_4D_sse2+0x165>
.byte 89 // pop %ecx
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp)
@@ -68811,7 +69458,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm4
+ .byte 102,15,111,161,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -68853,7 +69500,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,232,117,0,0 // paddd 0x75e8(%ecx),%xmm1
+ .byte 102,15,254,137,230,117,0,0 // paddd 0x75e6(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -68868,7 +69515,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,24,124,0,0 // movaps 0x7c18(%ecx),%xmm7
+ .byte 15,40,185,22,124,0,0 // movaps 0x7c16(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -68889,7 +69536,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm4
+ .byte 102,15,111,161,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -68925,7 +69572,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,232,117,0,0 // paddd 0x75e8(%ecx),%xmm0
+ .byte 102,15,254,129,230,117,0,0 // paddd 0x75e6(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -69009,7 +69656,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,232,117,0,0 // paddd 0x75e8(%ecx),%xmm1
+ .byte 102,15,254,137,230,117,0,0 // paddd 0x75e6(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -69027,7 +69674,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm2
+ .byte 102,15,111,145,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -69063,7 +69710,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,232,117,0,0 // paddd 0x75e8(%ecx),%xmm5
+ .byte 102,15,254,169,230,117,0,0 // paddd 0x75e6(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -69123,7 +69770,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm3
+ .byte 102,15,111,153,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -69162,7 +69809,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,232,117,0,0 // paddd 0x75e8(%ecx),%xmm0
+ .byte 102,15,254,129,230,117,0,0 // paddd 0x75e6(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -69214,7 +69861,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,232,117,0,0 // movdqa 0x75e8(%ecx),%xmm1
+ .byte 102,15,111,137,230,117,0,0 // movdqa 0x75e6(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -69248,7 +69895,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm3
+ .byte 102,15,111,153,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -69305,7 +69952,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm1
+ .byte 102,15,111,137,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -69342,7 +69989,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,232,117,0,0 // paddd 0x75e8(%ecx),%xmm0
+ .byte 102,15,254,129,230,117,0,0 // paddd 0x75e6(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -69410,7 +70057,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm0
+ .byte 102,15,111,129,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -69449,7 +70096,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,232,117,0,0 // paddd 0x75e8(%ecx),%xmm2
+ .byte 102,15,254,145,230,117,0,0 // paddd 0x75e6(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -69501,7 +70148,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,232,117,0,0 // movdqa 0x75e8(%ecx),%xmm1
+ .byte 102,15,111,137,230,117,0,0 // movdqa 0x75e6(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -69536,7 +70183,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm5
+ .byte 102,15,111,169,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -69592,7 +70239,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm2
+ .byte 102,15,111,145,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -69628,7 +70275,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,232,117,0,0 // paddd 0x75e8(%ecx),%xmm7
+ .byte 102,15,254,185,230,117,0,0 // paddd 0x75e6(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -69678,7 +70325,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm2
+ .byte 102,15,111,145,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -69717,7 +70364,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,232,117,0,0 // paddd 0x75e8(%ecx),%xmm2
+ .byte 102,15,254,145,230,117,0,0 // paddd 0x75e6(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -69771,7 +70418,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,232,117,0,0 // paddd 0x75e8(%ecx),%xmm3
+ .byte 102,15,254,153,230,117,0,0 // paddd 0x75e6(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -69804,7 +70451,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,40,124,0,0 // movdqa 0x7c28(%ecx),%xmm1
+ .byte 102,15,111,137,38,124,0,0 // movdqa 0x7c26(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -69844,7 +70491,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,232,117,0,0 // paddd 0x75e8(%ecx),%xmm0
+ .byte 102,15,254,129,230,117,0,0 // paddd 0x75e6(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -69898,7 +70545,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,232,117,0,0 // paddd 0x75e8(%ecx),%xmm2
+ .byte 102,15,254,145,230,117,0,0 // paddd 0x75e6(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -69967,7 +70614,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,168,117,0,0 // movaps 0x75a8(%ecx),%xmm3
+ .byte 15,40,153,166,117,0,0 // movaps 0x75a6(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -69985,18 +70632,18 @@ _sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 950d <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 232,0,0,0,0 // call 974f <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,227,103,0,0 // movaps 0x67e3(%eax),%xmm0
+ .byte 15,40,128,225,103,0,0 // movaps 0x67e1(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,243,103,0,0 // addps 0x67f3(%eax),%xmm0
+ .byte 15,88,128,241,103,0,0 // addps 0x67f1(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,3,104,0,0 // addps 0x6803(%eax),%xmm0
+ .byte 15,88,128,1,104,0,0 // addps 0x6801(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,19,104,0,0 // addps 0x6813(%eax),%xmm0
+ .byte 15,88,128,17,104,0,0 // addps 0x6811(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,35,104,0,0 // addps 0x6823(%eax),%xmm0
+ .byte 15,88,128,33,104,0,0 // addps 0x6821(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -70008,8 +70655,6 @@ _sk_gauss_a_to_rgba_sse2:
.byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_sse2_lowp
.globl _sk_start_pipeline_sse2_lowp
@@ -70023,7 +70668,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 9632 <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 9872 <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -70037,7 +70682,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 95e4 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 9824 <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -70059,13 +70704,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 959a <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 97da <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 9628 <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 9868 <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -70083,7 +70728,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 9588 <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 97c8 <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -70106,7 +70751,7 @@ _sk_seed_shader_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9648 <_sk_seed_shader_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9888 <_sk_seed_shader_sse2_lowp+0xd>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
@@ -70457,7 +71102,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9a67 <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9ca7 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -70498,7 +71143,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9ad2 <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9d12 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -70538,7 +71183,7 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9b3c <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9d7c <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -70596,7 +71241,7 @@ _sk_clamp_a_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9c00 <_sk_clamp_a_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9e40 <_sk_clamp_a_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -70657,7 +71302,7 @@ _sk_clamp_a_dst_sse2_lowp:
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 9cc7 <_sk_clamp_a_dst_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call 9f07 <_sk_clamp_a_dst_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,77,24 // movdqa 0x18(%ebp),%xmm1
@@ -70718,7 +71363,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9d96 <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9fd6 <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -70767,7 +71412,7 @@ _sk_premul_dst_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 9e2b <_sk_premul_dst_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call a06b <_sk_premul_dst_sse2_lowp+0x1a>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -70914,7 +71559,7 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9fba <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a1fa <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -71001,7 +71646,7 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a0b2 <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call a2f2 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
@@ -71063,7 +71708,7 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a186 <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a3c6 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
@@ -71121,7 +71766,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a247 <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a487 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -71169,7 +71814,7 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a2de <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a51e <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -71220,7 +71865,7 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a386 <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a5c6 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -71271,7 +71916,7 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call a429 <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call a669 <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
@@ -71327,7 +71972,7 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call a4e5 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call a725 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,136,91,88,0,0 // movdqa 0x585b(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
@@ -71388,7 +72033,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a5b5 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a7f5 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -71442,7 +72087,7 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a66a <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a8aa <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
@@ -71490,7 +72135,7 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a706 <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a946 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,160,58,86,0,0 // movdqa 0x563a(%eax),%xmm4
@@ -71563,7 +72208,7 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a807 <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call aa47 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
.byte 102,15,111,168,89,85,0,0 // movdqa 0x5559(%eax),%xmm5
@@ -71634,7 +72279,7 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a8ff <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call ab3f <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
@@ -71699,7 +72344,7 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call a9df <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call ac1f <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
.byte 102,15,111,176,97,83,0,0 // movdqa 0x5361(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
@@ -71768,7 +72413,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call aad4 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call ad14 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -71879,7 +72524,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ac7d <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call aebd <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -71987,7 +72632,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ae1b <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b05b <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -72100,7 +72745,7 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call afcf <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call b20f <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -72170,7 +72815,7 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call b0c9 <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call b309 <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
.byte 102,15,111,184,119,76,0,0 // movdqa 0x4c77(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
@@ -72306,7 +72951,7 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b2eb <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call b52b <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
.byte 102,15,111,184,85,74,0,0 // movdqa 0x4a55(%eax),%xmm7
@@ -72466,10 +73111,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b55a <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call b79a <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b580 <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja b7c0 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
@@ -72478,14 +73123,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp b5c9 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp b809 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp b5c9 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp b809 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp b5c9 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp b809 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -72581,10 +73226,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b6e5 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call b925 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b70b <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja b94b <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -72593,14 +73238,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp b754 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp b994 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp b754 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp b994 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp b754 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp b994 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -72711,19 +73356,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b8b0 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call baf0 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b8cd <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja bb0d <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b92a <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp bb6a <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b92a <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp bb6a <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -72731,7 +73376,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b92a <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp bb6a <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -72768,7 +73413,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b976 <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne bbb6 <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -72800,10 +73445,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b9b4 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call bbf4 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b9da <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja bc1a <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -72812,14 +73457,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp ba23 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp bc63 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp ba23 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp bc63 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp ba23 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp bc63 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -72916,10 +73561,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bb41 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call bd81 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja bb67 <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja bda7 <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -72928,14 +73573,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp bbb0 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp bdf0 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp bbb0 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp bdf0 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp bbb0 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp bdf0 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -73046,19 +73691,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call bd0c <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call bf4c <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja bd29 <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja bf69 <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp bd86 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp bfc6 <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp bd86 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp bfc6 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -73066,7 +73711,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp bd86 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp bfc6 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -73103,7 +73748,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne bdd2 <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne c012 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -73122,7 +73767,7 @@ _sk_gather_8888_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
- .byte 232,0,0,0,0 // call bded <_sk_gather_8888_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c02d <_sk_gather_8888_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -73253,7 +73898,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call bfe8 <_sk_gather_bgra_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c228 <_sk_gather_bgra_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -73399,10 +74044,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c20c <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call c44c <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja c22e <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja c46e <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,244,0,0,0 // mov 0xf4(%esi,%ecx,4),%ecx
@@ -73410,14 +74055,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp c269 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp c4a9 <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp c269 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp c4a9 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp c269 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp c4a9 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -73497,10 +74142,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c347 <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call c587 <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c369 <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja c5a9 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -73508,14 +74153,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp c3a4 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp c5e4 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp c3a4 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp c5e4 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp c3a4 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp c5e4 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -73585,7 +74230,7 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call c46e <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call c6ae <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
@@ -73612,19 +74257,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja c4e6 <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja c726 <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp c521 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp c761 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp c521 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp c761 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp c521 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp c761 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -73700,7 +74345,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,244,242 // pmuludq %xmm2,%xmm6
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 232,0,0,0,0 // call c5f4 <_sk_gather_565_sse2_lowp+0x78>
+ .byte 232,0,0,0,0 // call c834 <_sk_gather_565_sse2_lowp+0x78>
.byte 89 // pop %ecx
.byte 139,50 // mov (%edx),%esi
.byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
@@ -73820,10 +74465,10 @@ _sk_load_4444_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c7ae <_sk_load_4444_sse2_lowp+0x37>
+ .byte 232,0,0,0,0 // call c9ee <_sk_load_4444_sse2_lowp+0x37>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c7d0 <_sk_load_4444_sse2_lowp+0x59>
+ .byte 119,28 // ja ca10 <_sk_load_4444_sse2_lowp+0x59>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,250,0,0,0 // mov 0xfa(%edi,%ecx,4),%ecx
@@ -73831,14 +74476,14 @@ _sk_load_4444_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp c80b <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,59 // jmp ca4b <_sk_load_4444_sse2_lowp+0x94>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp c80b <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,52 // jmp ca4b <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,4,115 // movss (%ebx,%esi,2),%xmm0
.byte 243,15,16,224 // movss %xmm0,%xmm4
- .byte 235,30 // jmp c80b <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,30 // jmp ca4b <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -73923,10 +74568,10 @@ _sk_load_4444_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c8f3 <_sk_load_4444_dst_sse2_lowp+0x2f>
+ .byte 232,0,0,0,0 // call cb33 <_sk_load_4444_dst_sse2_lowp+0x2f>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c915 <_sk_load_4444_dst_sse2_lowp+0x51>
+ .byte 119,28 // ja cb55 <_sk_load_4444_dst_sse2_lowp+0x51>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,253,0,0,0 // mov 0xfd(%edi,%ecx,4),%ecx
@@ -73934,14 +74579,14 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,249 // movd %ecx,%xmm7
- .byte 235,59 // jmp c950 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,59 // jmp cb90 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 243,15,111,60,115 // movdqu (%ebx,%esi,2),%xmm7
- .byte 235,52 // jmp c950 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,52 // jmp cb90 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,253 // movss %xmm5,%xmm7
- .byte 235,30 // jmp c950 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,30 // jmp cb90 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7
.byte 102,15,196,124,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7
@@ -74015,7 +74660,7 @@ _sk_store_4444_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 232,0,0,0,0 // call ca1e <_sk_store_4444_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call cc5e <_sk_store_4444_sse2_lowp+0x12>
.byte 94 // pop %esi
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
@@ -74045,19 +74690,19 @@ _sk_store_4444_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,125,16 // mov 0x10(%ebp),%edi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja caa6 <_sk_store_4444_sse2_lowp+0x9a>
+ .byte 119,22 // ja cce6 <_sk_store_4444_sse2_lowp+0x9a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,180,142,2,1,0,0 // add 0x102(%esi,%ecx,4),%esi
.byte 255,230 // jmp *%esi
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 102,137,12,123 // mov %cx,(%ebx,%edi,2)
- .byte 235,59 // jmp cae1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,59 // jmp cd21 <_sk_store_4444_sse2_lowp+0xd5>
.byte 243,15,127,28,123 // movdqu %xmm3,(%ebx,%edi,2)
- .byte 235,52 // jmp cae1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,52 // jmp cd21 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 102,137,76,123,4 // mov %cx,0x4(%ebx,%edi,2)
.byte 102,15,126,28,123 // movd %xmm3,(%ebx,%edi,2)
- .byte 235,35 // jmp cae1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,35 // jmp cd21 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 102,137,76,123,12 // mov %cx,0xc(%ebx,%edi,2)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -74085,7 +74730,7 @@ _sk_store_4444_sse2_lowp:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 15,31,0 // nopl (%eax)
- .byte 126,0 // jle cb22 <_sk_store_4444_sse2_lowp+0x116>
+ .byte 126,0 // jle cd62 <_sk_store_4444_sse2_lowp+0x116>
.byte 0,0 // add %al,(%eax)
.byte 153 // cltd
.byte 0,0 // add %al,(%eax)
@@ -74106,7 +74751,7 @@ _sk_gather_4444_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call cb49 <_sk_gather_4444_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call cd89 <_sk_gather_4444_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -74254,10 +74899,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cd66 <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call cfa6 <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cd88 <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja cfc8 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -74265,10 +74910,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp cde2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp d022 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp cde2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp d022 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -74276,7 +74921,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp cde2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp d022 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -74342,10 +74987,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ce71 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call d0b1 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja ce93 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja d0d3 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -74353,10 +74998,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp ceed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp d12d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp ceed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp d12d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -74364,7 +75009,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp ceed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp d12d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -74432,23 +75077,23 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cf89 <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d1c9 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja cfa9 <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja d1e9 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp d031 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 233,136,0,0,0 // jmp d271 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp d031 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp d271 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
.byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
@@ -74457,7 +75102,7 @@ _sk_store_a8_sse2_lowp:
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp d031 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp d271 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -74501,7 +75146,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je d07a <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je d2ba <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -74641,10 +75286,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d23c <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d47c <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja d25e <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja d49e <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,200,0,0,0 // mov 0xc8(%esi,%ecx,4),%ecx
@@ -74652,10 +75297,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp d2b8 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp d4f8 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp d2b8 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp d4f8 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -74663,7 +75308,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp d2b8 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp d4f8 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -74729,10 +75374,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d349 <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call d589 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d36b <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja d5ab <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -74740,10 +75385,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d3c5 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp d605 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d3c5 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp d605 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -74751,7 +75396,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d3c5 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp d605 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -74805,7 +75450,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call d439 <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call d679 <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -74899,7 +75544,7 @@ _sk_gather_g8_sse2_lowp:
.byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
- .byte 232,0,0,0,0 // call d57e <_sk_gather_g8_sse2_lowp+0xc9>
+ .byte 232,0,0,0,0 // call d7be <_sk_gather_g8_sse2_lowp+0xc9>
.byte 89 // pop %ecx
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
@@ -74963,7 +75608,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d64f <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call d88f <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -75023,7 +75668,7 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call d71d <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call d95d <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -75108,10 +75753,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d846 <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call da86 <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d868 <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja daa8 <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,2,1,0,0 // mov 0x102(%edi,%ecx,4),%ecx
@@ -75119,10 +75764,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d8c2 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp db02 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d8c2 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp db02 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -75130,7 +75775,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d8c2 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp db02 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -75210,10 +75855,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d992 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call dbd2 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d9b4 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja dbf4 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -75221,10 +75866,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp da0e <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp dc4e <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp da0e <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp dc4e <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -75232,7 +75877,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp da0e <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp dc4e <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -75333,10 +75978,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call db3b <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call dd7b <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja db5d <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja dd9d <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -75344,14 +75989,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp db98 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp ddd8 <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp db98 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp ddd8 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp db98 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp ddd8 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -75496,10 +76141,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dd93 <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call dfd3 <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja ddb5 <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja dff5 <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -75507,14 +76152,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp ddf0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e030 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp ddf0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e030 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp ddf0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e030 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -75660,7 +76305,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e005 <_sk_clamp_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e245 <_sk_clamp_x_1_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -75701,7 +76346,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e074 <_sk_repeat_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e2b4 <_sk_repeat_x_1_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -75760,7 +76405,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e11e <_sk_mirror_x_1_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call e35e <_sk_mirror_x_1_sse2_lowp+0x1a>
.byte 88 // pop %eax
.byte 15,40,160,178,21,0,0 // movaps 0x15b2(%eax),%xmm4
.byte 15,88,204 // addps %xmm4,%xmm1
@@ -75832,7 +76477,7 @@ _sk_gradient_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 129,236,108,1,0,0 // sub $0x16c,%esp
- .byte 232,0,0,0,0 // call e1fc <_sk_gradient_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call e43c <_sk_gradient_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 137,69,164 // mov %eax,-0x5c(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -75842,7 +76487,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 131,248,2 // cmp $0x2,%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 114,48 // jb e246 <_sk_gradient_sse2_lowp+0x5b>
+ .byte 114,48 // jb e486 <_sk_gradient_sse2_lowp+0x5b>
.byte 139,78,36 // mov 0x24(%esi),%ecx
.byte 72 // dec %eax
.byte 131,193,4 // add $0x4,%ecx
@@ -75857,7 +76502,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,234 // psubd %xmm2,%xmm5
.byte 131,193,4 // add $0x4,%ecx
.byte 72 // dec %eax
- .byte 117,223 // jne e225 <_sk_gradient_sse2_lowp+0x3a>
+ .byte 117,223 // jne e465 <_sk_gradient_sse2_lowp+0x3a>
.byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
@@ -76183,7 +76828,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 129,236,92,1,0,0 // sub $0x15c,%esp
.byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
.byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 232,0,0,0,0 // call e76e <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call e9ae <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,48 // mov (%eax),%esi
@@ -76519,7 +77164,7 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call ecad <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
+ .byte 232,0,0,0,0 // call eeed <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -76654,7 +77299,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 232,0,0,0,0 // call ee98 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
+ .byte 232,0,0,0,0 // call f0d8 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
.byte 88 // pop %eax
.byte 15,40,128,200,12,0,0 // movaps 0xcc8(%eax),%xmm0
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -76850,11 +77495,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f100 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call f340 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f126 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja f366 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,76,2,0,0 // mov 0x24c(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -76862,14 +77507,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp f16f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp f3af <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp f16f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp f3af <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f16f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp f3af <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -76947,18 +77592,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja f2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja f4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,104,2,0,0 // add 0x268(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp f2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp f530 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp f2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp f530 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp f2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp f530 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -77042,11 +77687,11 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
+ .byte 232,0,0,0,0 // call f604 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f3ea <_sk_srcover_bgra_8888_sse2_lowp+0x66>
+ .byte 119,29 // ja f62a <_sk_srcover_bgra_8888_sse2_lowp+0x66>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 139,132,145,80,2,0,0 // mov 0x250(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -77054,14 +77699,14 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,73 // jmp f433 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,73 // jmp f673 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,100,183,16 // movups 0x10(%edi,%esi,4),%xmm4
- .byte 235,61 // jmp f433 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,61 // jmp f673 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f433 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,43 // jmp f673 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -77139,18 +77784,18 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja f576 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
+ .byte 119,16 // ja f7b6 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
.byte 3,140,145,108,2,0,0 // add 0x26c(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp f5b6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,64 // jmp f7f6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp f5b6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,51 // jmp f7f6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp f5b6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,33 // jmp f7f6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -77270,11 +77915,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne f728 <.literal16+0xd8>
+ .byte 224,64 // loopne f968 <.literal16+0xd8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne f72c <.literal16+0xdc>
+ .byte 224,64 // loopne f96c <.literal16+0xdc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne f730 <.literal16+0xe0>
+ .byte 224,64 // loopne f970 <.literal16+0xe0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -77285,16 +77930,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope f751 <.literal16+0x101>
+ .byte 225,61 // loope f991 <.literal16+0x101>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope f755 <.literal16+0x105>
+ .byte 225,61 // loope f995 <.literal16+0x105>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope f759 <.literal16+0x109>
+ .byte 225,61 // loope f999 <.literal16+0x109>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope f75d <.literal16+0x10d>
+ .byte 225,61 // loope f99d <.literal16+0x10d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -77304,13 +77949,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg f777 <.literal16+0x127>
+ .byte 127,67 // jg f9b7 <.literal16+0x127>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg f77b <.literal16+0x12b>
+ .byte 127,67 // jg f9bb <.literal16+0x12b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg f77f <.literal16+0x12f>
+ .byte 127,67 // jg f9bf <.literal16+0x12f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg f783 <.literal16+0x133>
+ .byte 127,67 // jg f9c3 <.literal16+0x133>
.byte 0,0 // add %al,(%eax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
@@ -77466,13 +78111,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne f899 <.literal16+0x249>
+ .byte 224,7 // loopne fad9 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne f89d <.literal16+0x24d>
+ .byte 224,7 // loopne fadd <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne f8a1 <.literal16+0x251>
+ .byte 224,7 // loopne fae1 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne f8a5 <.literal16+0x255>
+ .byte 224,7 // loopne fae5 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -77521,17 +78166,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg f904 <.literal16+0x2b4>
+ .byte 127,0 // jg fb44 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg f908 <.literal16+0x2b8>
+ .byte 127,0 // jg fb48 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg f90c <.literal16+0x2bc>
+ .byte 127,0 // jg fb4c <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg f910 <.literal16+0x2c0>
- .byte 119,115 // ja f985 <.literal16+0x335>
+ .byte 127,0 // jg fb50 <.literal16+0x2c0>
+ .byte 119,115 // ja fbc5 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -77542,7 +78187,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne f8e9 <.literal16+0x299>
+ .byte 117,191 // jne fb29 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -77558,7 +78203,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a43926 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
+ .byte 233,220,63,163,233 // jmp e9a43b66 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -77654,16 +78299,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fa73 <.literal16+0x423>
+ .byte 118,63 // jbe fcb3 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fa77 <.literal16+0x427>
+ .byte 118,63 // jbe fcb7 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fa7b <.literal16+0x42b>
+ .byte 118,63 // jbe fcbb <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fa7f <.literal16+0x42f>
+ .byte 118,63 // jbe fcbf <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -77689,13 +78334,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl fab6 <.literal16+0x466>
+ .byte 124,66 // jl fcf6 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl faba <.literal16+0x46a>
+ .byte 124,66 // jl fcfa <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl fabe <.literal16+0x46e>
+ .byte 124,66 // jl fcfe <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl fac2 <.literal16+0x472>
+ .byte 124,66 // jl fd02 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -77741,25 +78386,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fb45 <.literal16+0x4f5>
+ .byte 112,65 // jo fd85 <.literal16+0x4f5>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fb49 <.literal16+0x4f9>
+ .byte 112,65 // jo fd89 <.literal16+0x4f9>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fb4d <.literal16+0x4fd>
+ .byte 112,65 // jo fd8d <.literal16+0x4fd>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fb51 <.literal16+0x501>
+ .byte 112,65 // jo fd91 <.literal16+0x501>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg fb23 <.literal16+0x4d3>
+ .byte 127,0 // jg fd63 <.literal16+0x4d3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg fb27 <.literal16+0x4d7>
+ .byte 127,0 // jg fd67 <.literal16+0x4d7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg fb2b <.literal16+0x4db>
+ .byte 127,0 // jg fd6b <.literal16+0x4db>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg fb2f <.literal16+0x4df>
+ .byte 127,0 // jg fd6f <.literal16+0x4df>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -77785,13 +78430,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg fb68 <.literal16+0x518>
+ .byte 127,255 // jg fda8 <.literal16+0x518>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg fb6c <.literal16+0x51c>
+ .byte 127,255 // jg fdac <.literal16+0x51c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fb71 <.literal16+0x521>
+ .byte 127,0 // jg fdb1 <.literal16+0x521>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -77805,13 +78450,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg fbdb <.literal16+0x58b>
+ .byte 127,71 // jg fe1b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg fbdf <.literal16+0x58f>
+ .byte 127,71 // jg fe1f <.literal16+0x58f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg fbe3 <.literal16+0x593>
+ .byte 127,71 // jg fe23 <.literal16+0x593>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg fbe7 <.literal16+0x597>
+ .byte 127,71 // jg fe27 <.literal16+0x597>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -77908,13 +78553,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb fcae <.literal16+0x65e>
+ .byte 114,28 // jb feee <.literal16+0x65e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt fcb2 <.literal16+0x662>
+ .byte 62,114,28 // jb,pt fef2 <.literal16+0x662>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt fcb6 <.literal16+0x666>
+ .byte 62,114,28 // jb,pt fef6 <.literal16+0x666>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt fcba <.literal16+0x66a>
+ .byte 62,114,28 // jb,pt fefa <.literal16+0x66a>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -77935,13 +78580,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg fd13 <.literal16+0x6c3>
- .byte 114,249 // jb fccf <.literal16+0x67f>
- .byte 127,63 // jg fd17 <.literal16+0x6c7>
- .byte 114,249 // jb fcd3 <.literal16+0x683>
- .byte 127,63 // jg fd1b <.literal16+0x6cb>
- .byte 114,249 // jb fcd7 <.literal16+0x687>
- .byte 127,63 // jg fd1f <.literal16+0x6cf>
+ .byte 127,63 // jg ff53 <.literal16+0x6c3>
+ .byte 114,249 // jb ff0f <.literal16+0x67f>
+ .byte 127,63 // jg ff57 <.literal16+0x6c7>
+ .byte 114,249 // jb ff13 <.literal16+0x683>
+ .byte 127,63 // jg ff5b <.literal16+0x6cb>
+ .byte 114,249 // jb ff17 <.literal16+0x687>
+ .byte 127,63 // jg ff5f <.literal16+0x6cf>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -78037,14 +78682,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne fdc1 <.literal16+0x771>
- .byte 224,255 // loopne fdc3 <.literal16+0x773>
- .byte 224,255 // loopne fdc5 <.literal16+0x775>
- .byte 224,255 // loopne fdc7 <.literal16+0x777>
- .byte 224,255 // loopne fdc9 <.literal16+0x779>
- .byte 224,255 // loopne fdcb <.literal16+0x77b>
- .byte 224,255 // loopne fdcd <.literal16+0x77d>
- .byte 224,255 // loopne fdcf <.literal16+0x77f>
+ .byte 224,255 // loopne 10001 <.literal16+0x771>
+ .byte 224,255 // loopne 10003 <.literal16+0x773>
+ .byte 224,255 // loopne 10005 <.literal16+0x775>
+ .byte 224,255 // loopne 10007 <.literal16+0x777>
+ .byte 224,255 // loopne 10009 <.literal16+0x779>
+ .byte 224,255 // loopne 1000b <.literal16+0x77b>
+ .byte 224,255 // loopne 1000d <.literal16+0x77d>
+ .byte 224,255 // loopne 1000f <.literal16+0x77f>
.byte 15,0,15 // str (%edi)
.byte 0,15 // add %cl,(%edi)
.byte 0,15 // add %cl,(%edi)
@@ -78099,5 +78744,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fe8b <_sk_srcover_bgra_8888_sse2_lowp+0xb07>
+ .byte 127,67 // jg 100cb <_sk_srcover_bgra_8888_sse2_lowp+0xb07>
#endif