aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S10833
1 files changed, 4925 insertions, 5908 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 9bff16777e..7005ce41f1 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -116,9 +116,9 @@ _sk_seed_shader_skx:
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,154,173,3,0 // vaddps 0x3ad9a(%rip){1to8},%ymm1,%ymm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,18,161,3,0 // vaddps 0x3a112(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,147,173,3,0 // vbroadcastss 0x3ad93(%rip),%ymm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,11,161,3,0 // vbroadcastss 0x3a10b(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -132,16 +132,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,13,175,3,0 // vpaddd 0x3af0d(%rip),%ymm8,%ymm8 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x450>
+ .byte 197,61,254,5,141,162,3,0 // vpaddd 0x3a28d(%rip),%ymm8,%ymm8 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x458>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,93,173,3,0 // vpbroadcastd 0x3ad5d(%rip),%ymm10 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,213,160,3,0 // vpbroadcastd 0x3a0d5(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,66,173,3,0 // vpbroadcastd 0x3ad42(%rip),%ymm12 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,61,173,3,0 // vpbroadcastd 0x3ad3d(%rip),%ymm13 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,186,160,3,0 // vpbroadcastd 0x3a0ba(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,181,160,3,0 // vpbroadcastd 0x3a0b5(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -156,8 +156,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,239,172,3,0 // vbroadcastss 0x3acef(%rip),%ymm9 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 98,114,61,56,168,13,233,172,3,0 // vfmadd213ps 0x3ace9(%rip){1to8},%ymm8,%ymm9 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,103,160,3,0 // vbroadcastss 0x3a067(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 98,114,61,56,168,13,97,160,3,0 // vfmadd213ps 0x3a061(%rip){1to8},%ymm8,%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -190,7 +190,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,118,172,3,0 // vbroadcastss 0x3ac76(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,238,159,3,0 // vbroadcastss 0x39fee(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -201,7 +201,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,93,172,3,0 // vbroadcastss 0x3ac5d(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,213,159,3,0 // vbroadcastss 0x39fd5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -247,7 +247,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,252,171,3,0 // vbroadcastss 0x3abfc(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,116,159,3,0 // vbroadcastss 0x39f74(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -263,7 +263,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,203,171,3,0 // vbroadcastss 0x3abcb(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,67,159,3,0 // vbroadcastss 0x39f43(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -302,7 +302,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,110,171,3,0 // vbroadcastss 0x3ab6e(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,230,158,3,0 // vbroadcastss 0x39ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -315,7 +315,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,77,171,3,0 // vbroadcastss 0x3ab4d(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,197,158,3,0 // vbroadcastss 0x39ec5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -328,7 +328,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,44,171,3,0 // vbroadcastss 0x3ab2c(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,158,3,0 // vbroadcastss 0x39ea4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -341,7 +341,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,7,171,3,0 // vbroadcastss 0x3ab07(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,127,158,3,0 // vbroadcastss 0x39e7f(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -365,7 +365,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,206,170,3,0 // vbroadcastss 0x3aace(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,70,158,3,0 // vbroadcastss 0x39e46(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -388,7 +388,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,125,170,3,0 // vbroadcastss 0x3aa7d(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,245,157,3,0 // vbroadcastss 0x39df5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -418,7 +418,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,40,170,3,0 // vbroadcastss 0x3aa28(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,160,157,3,0 // vbroadcastss 0x39da0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -452,7 +452,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,172,169,3,0 // vbroadcastss 0x3a9ac(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,36,157,3,0 // vbroadcastss 0x39d24(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -477,7 +477,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,87,169,3,0 // vbroadcastss 0x3a957(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,207,156,3,0 // vbroadcastss 0x39ccf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -505,7 +505,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,246,168,3,0 // vbroadcastss 0x3a8f6(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,110,156,3,0 // vbroadcastss 0x39c6e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -527,7 +527,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,176,168,3,0 // vbroadcastss 0x3a8b0(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,40,156,3,0 // vbroadcastss 0x39c28(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -539,7 +539,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,141,168,3,0 // vbroadcastss 0x3a88d(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,5,156,3,0 // vbroadcastss 0x39c05(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -603,7 +603,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,94,167,3,0 // vbroadcastss 0x3a75e(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,214,154,3,0 // vbroadcastss 0x39ad6(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -660,7 +660,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,86,166,3,0 // vbroadcastss 0x3a656(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,206,153,3,0 // vbroadcastss 0x399ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -714,7 +714,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,114,165,3,0 // vbroadcastss 0x3a572(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,234,152,3,0 // vbroadcastss 0x398ea(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -780,15 +780,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,80,164,3,0 // vbroadcastss 0x3a450(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,200,151,3,0 // vbroadcastss 0x397c8(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,75,164,3,0 // vbroadcastss 0x3a44b(%rip),%ymm18 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 98,226,125,40,24,21,195,151,3,0 // vbroadcastss 0x397c3(%rip),%ymm18 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,57,164,3,0 // vbroadcastss 0x3a439(%rip),%ymm19 # 3aebc <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 98,226,125,40,24,29,177,151,3,0 // vbroadcastss 0x397b1(%rip),%ymm19 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -910,11 +910,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,212,161,3,0 // vbroadcastss 0x3a1d4(%rip),%ymm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,207,161,3,0 // vbroadcastss 0x3a1cf(%rip),%ymm14 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,76,149,3,0 // vbroadcastss 0x3954c(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,71,149,3,0 // vbroadcastss 0x39547(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,191,161,3,0 // vbroadcastss 0x3a1bf(%rip),%ymm16 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,55,149,3,0 // vbroadcastss 0x39537(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -971,7 +971,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,91,160,3,0 // vbroadcastss 0x3a05b(%rip),%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,211,147,3,0 // vbroadcastss 0x393d3(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1023,11 +1023,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,144,159,3,0 // vbroadcastss 0x39f90(%rip),%ymm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,139,159,3,0 // vbroadcastss 0x39f8b(%rip),%ymm14 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,8,147,3,0 // vbroadcastss 0x39308(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,3,147,3,0 // vbroadcastss 0x39303(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,123,159,3,0 // vbroadcastss 0x39f7b(%rip),%ymm16 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,243,146,3,0 // vbroadcastss 0x392f3(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -1084,7 +1084,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,23,158,3,0 // vbroadcastss 0x39e17(%rip),%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,143,145,3,0 // vbroadcastss 0x3918f(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1108,11 +1108,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,224,157,3,0 // vbroadcastss 0x39de0(%rip),%ymm12 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,219,157,3,0 // vbroadcastss 0x39ddb(%rip),%ymm13 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,88,145,3,0 // vbroadcastss 0x39158(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,83,145,3,0 // vbroadcastss 0x39153(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,204,157,3,0 // vbroadcastss 0x39dcc(%rip),%ymm15 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,68,145,3,0 // vbroadcastss 0x39144(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1170,7 +1170,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,93,156,3,0 // vbroadcastss 0x39c5d(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,213,143,3,0 // vbroadcastss 0x38fd5(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1194,11 +1194,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,40,156,3,0 // vbroadcastss 0x39c28(%rip),%ymm12 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,35,156,3,0 // vbroadcastss 0x39c23(%rip),%ymm13 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,160,143,3,0 // vbroadcastss 0x38fa0(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,155,143,3,0 // vbroadcastss 0x38f9b(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,20,156,3,0 // vbroadcastss 0x39c14(%rip),%ymm15 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,140,143,3,0 // vbroadcastss 0x38f8c(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1256,7 +1256,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,165,154,3,0 // vbroadcastss 0x39aa5(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,29,142,3,0 // vbroadcastss 0x38e1d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1300,9 +1300,9 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,247,153,3,0 // vbroadcastss 0x399f7(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,111,141,3,0 // vbroadcastss 0x38d6f(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,22,154,3,0 // vbroadcastss 0x39a16(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,142,141,3,0 // vbroadcastss 0x38d8e(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -1450,9 +1450,9 @@ _sk_srcover_bgra_8888_skx:
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,138,151,3,0 // vbroadcastss 0x3978a(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,2,139,3,0 // vbroadcastss 0x38b02(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,169,151,3,0 // vbroadcastss 0x397a9(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,33,139,3,0 // vbroadcastss 0x38b21(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -1592,7 +1592,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,102,149,3,0 // vbroadcastss 0x39566(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,222,136,3,0 // vbroadcastss 0x388de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -1604,7 +1604,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,68,149,3,0 // vminps 0x39544(%rip){1to8},%ymm3,%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,188,136,3,0 // vminps 0x388bc(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -1615,7 +1615,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,42,149,3,0 // vminps 0x3952a(%rip){1to8},%ymm7,%ymm7 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,68,56,93,61,162,136,3,0 // vminps 0x388a2(%rip){1to8},%ymm7,%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -1647,7 +1647,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,234,148,3,0 // vbroadcastss 0x394ea(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,98,136,3,0 // vbroadcastss 0x38862(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -1701,9 +1701,9 @@ HIDDEN _sk_unpremul_skx
.globl _sk_unpremul_skx
FUNCTION(_sk_unpremul_skx)
_sk_unpremul_skx:
- .byte 196,98,125,24,5,133,148,3,0 // vbroadcastss 0x39485(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,253,135,3,0 // vbroadcastss 0x387fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 98,241,60,56,194,5,166,148,3,0,1 // vcmpltps 0x394a6(%rip){1to8},%ymm8,%k0 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 98,241,60,56,194,5,30,136,3,0,1 // vcmpltps 0x3881e(%rip){1to8},%ymm8,%k0 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -1717,16 +1717,16 @@ HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,128,148,3,0 // vbroadcastss 0x39480(%rip),%ymm8 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,248,135,3,0 // vbroadcastss 0x387f8(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,114,148,3,0 // vbroadcastss 0x39472(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,81,148,3,0 // vbroadcastss 0x39451(%rip),%ymm12 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,234,135,3,0 // vbroadcastss 0x387ea(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,201,135,3,0 // vbroadcastss 0x387c9(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,90,148,3,0 // vbroadcastss 0x3945a(%rip),%ymm14 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,210,135,3,0 // vbroadcastss 0x387d2(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,80,148,3,0 // vbroadcastss 0x39450(%rip),%ymm10 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,200,135,3,0 // vbroadcastss 0x387c8(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -1752,16 +1752,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,211,147,3,0 // vbroadcastss 0x393d3(%rip),%ymm8 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,75,135,3,0 // vbroadcastss 0x3874b(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,197,147,3,0 // vbroadcastss 0x393c5(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,164,147,3,0 // vbroadcastss 0x393a4(%rip),%ymm12 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,61,135,3,0 // vbroadcastss 0x3873d(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,28,135,3,0 // vbroadcastss 0x3871c(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,173,147,3,0 // vbroadcastss 0x393ad(%rip),%ymm14 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,37,135,3,0 // vbroadcastss 0x38725(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,163,147,3,0 // vbroadcastss 0x393a3(%rip),%ymm10 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,27,135,3,0 // vbroadcastss 0x3871b(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -1788,19 +1788,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,48,147,3,0 // vbroadcastss 0x39330(%rip),%ymm9 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,13,168,134,3,0 // vbroadcastss 0x386a8(%rip),%ymm9 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,38,147,3,0 // vbroadcastss 0x39326(%rip),%ymm11 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,33,147,3,0 // vbroadcastss 0x39321(%rip),%ymm12 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,158,134,3,0 // vbroadcastss 0x3869e(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,153,134,3,0 // vbroadcastss 0x38699(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,18,147,3,0 // vbroadcastss 0x39312(%rip),%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
+ .byte 196,98,125,24,53,138,134,3,0 // vbroadcastss 0x3868a(%rip),%ymm14 # 3a268 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,8,147,3,0 // vbroadcastss 0x39308(%rip),%ymm15 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x304>
+ .byte 196,98,125,24,61,128,134,3,0 // vbroadcastss 0x38680(%rip),%ymm15 # 3a26c <_sk_srcover_bgra_8888_sse2_lowp+0x304>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,243,146,3,0 // vbroadcastss 0x392f3(%rip),%ymm13 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,107,134,3,0 // vbroadcastss 0x3866b(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -1838,7 +1838,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,228,145,3,0 // vbroadcastss 0x391e4(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,92,133,3,0 // vbroadcastss 0x3855c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -1847,23 +1847,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,6,146,3,0 // vbroadcastss 0x39206(%rip),%ymm11 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,29,126,133,3,0 // vbroadcastss 0x3857e(%rip),%ymm11 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,225,145,3,0 // vbroadcastss 0x391e1(%rip),%ymm15 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,61,89,133,3,0 // vbroadcastss 0x38559(%rip),%ymm15 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,210,145,3,0 // vfmadd213ps 0x391d2(%rip){1to8},%ymm12,%ymm0 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,242,29,56,168,5,74,133,3,0 // vfmadd213ps 0x3854a(%rip){1to8},%ymm12,%ymm0 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,186,145,3,0 // vmulps 0x391ba(%rip){1to8},%ymm0,%ymm0 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 98,241,124,56,89,5,50,133,3,0 // vmulps 0x38532(%rip){1to8},%ymm0,%ymm0 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,64,145,3,0 // vbroadcastss 0x39140(%rip),%ymm11 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,184,132,3,0 // vbroadcastss 0x384b8(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -1882,7 +1882,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,242,144,3,0 // vbroadcastss 0x390f2(%rip),%ymm16 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,226,125,40,24,5,106,132,3,0 // vbroadcastss 0x3846a(%rip),%ymm16 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -1890,27 +1890,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,39,145,3,0 // vfmsub231ps 0x39127(%rip){1to8},%ymm2,%ymm9 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 98,114,109,56,186,13,159,132,3,0 // vfmsub231ps 0x3849f(%rip){1to8},%ymm2,%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,23,145,3,0 // vaddps 0x39117(%rip){1to8},%ymm0,%ymm1 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 98,241,124,56,88,13,143,132,3,0 // vaddps 0x3848f(%rip){1to8},%ymm0,%ymm1 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,6,145,3,0 // vbroadcastss 0x39106(%rip),%ymm19 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 98,226,125,40,24,29,126,132,3,0 // vbroadcastss 0x3847e(%rip),%ymm19 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,215,144,3,0 // vbroadcastss 0x390d7(%rip),%ymm15 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,61,79,132,3,0 // vbroadcastss 0x3844f(%rip),%ymm15 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,208,144,3,0 // vbroadcastss 0x390d0(%rip),%ymm17 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,226,125,40,24,13,72,132,3,0 // vbroadcastss 0x38448(%rip),%ymm17 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,167,144,3,0 // vbroadcastss 0x390a7(%rip),%ymm10 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,21,31,132,3,0 // vbroadcastss 0x3841f(%rip),%ymm10 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -1932,7 +1932,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,45,144,3,0 // vaddps 0x3902d(%rip){1to8},%ymm0,%ymm0 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 98,241,124,56,88,5,165,131,3,0 // vaddps 0x383a5(%rip){1to8},%ymm0,%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -1981,10 +1981,10 @@ _sk_scale_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 1fc3 <_sk_scale_u8_skx+0x4e>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,149,152,3,0 // vpand 0x39895(%rip),%xmm8,%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,57,219,5,85,139,3,0 // vpand 0x38b55(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,105,143,3,0 // vmulps 0x38f69(%rip){1to8},%ymm8,%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,225,130,3,0 // vmulps 0x382e1(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -2061,15 +2061,15 @@ _sk_scale_565_skx:
.byte 15,133,145,0,0,0 // jne 213c <_sk_scale_565_skx+0xb0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,92,142,3,0 // vpandd 0x38e5c(%rip){1to8},%ymm8,%ymm9 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,212,129,3,0 // vpandd 0x381d4(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,81,142,3,0 // vmulps 0x38e51(%rip){1to8},%ymm9,%ymm9 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,75,142,3,0 // vpandd 0x38e4b(%rip){1to8},%ymm8,%ymm10 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,201,129,3,0 // vmulps 0x381c9(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,195,129,3,0 // vpandd 0x381c3(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,64,142,3,0 // vmulps 0x38e40(%rip){1to8},%ymm10,%ymm10 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,58,142,3,0 // vpandd 0x38e3a(%rip){1to8},%ymm8,%ymm8 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,184,129,3,0 // vmulps 0x381b8(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,178,129,3,0 // vpandd 0x381b2(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,47,142,3,0 // vmulps 0x38e2f(%rip){1to8},%ymm8,%ymm8 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,167,129,3,0 // vmulps 0x381a7(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2165,10 +2165,10 @@ _sk_lerp_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,74 // jne 2291 <_sk_lerp_u8_skx+0x62>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,219,149,3,0 // vpand 0x395db(%rip),%xmm8,%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,57,219,5,155,136,3,0 // vpand 0x3889b(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,175,140,3,0 // vmulps 0x38caf(%rip){1to8},%ymm8,%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,39,128,3,0 // vmulps 0x38027(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -2248,15 +2248,15 @@ _sk_lerp_565_skx:
.byte 15,133,165,0,0,0 // jne 241c <_sk_lerp_565_skx+0xc4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,144,139,3,0 // vpandd 0x38b90(%rip){1to8},%ymm8,%ymm9 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,8,127,3,0 // vpandd 0x37f08(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,133,139,3,0 // vmulps 0x38b85(%rip){1to8},%ymm9,%ymm9 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,127,139,3,0 // vpandd 0x38b7f(%rip){1to8},%ymm8,%ymm10 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,253,126,3,0 // vmulps 0x37efd(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,247,126,3,0 // vpandd 0x37ef7(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,116,139,3,0 // vmulps 0x38b74(%rip){1to8},%ymm10,%ymm10 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,110,139,3,0 // vpandd 0x38b6e(%rip){1to8},%ymm8,%ymm8 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,236,126,3,0 // vmulps 0x37eec(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,230,126,3,0 // vpandd 0x37ee6(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,99,139,3,0 // vmulps 0x38b63(%rip){1to8},%ymm8,%ymm8 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,219,126,3,0 // vmulps 0x37edb(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2356,7 +2356,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,182,137,3,0 // vmulps 0x389b6(%rip){1to8},%ymm3,%ymm3 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,100,56,89,29,46,125,3,0 // vmulps 0x37d2e(%rip){1to8},%ymm3,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -2435,7 +2435,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,153,145,3,0 // vmovdqa 0x39199(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,121,111,21,89,132,3,0 // vmovdqa 0x38459(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2461,7 +2461,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,28,136,3,0 // vmulps 0x3881c(%rip){1to8},%ymm3,%ymm3 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 98,241,100,56,89,29,148,123,3,0 // vmulps 0x37b94(%rip){1to8},%ymm3,%ymm3 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
@@ -2518,7 +2518,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,34,144,3,0 // vmovdqa 0x39022(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,121,111,21,226,130,3,0 // vmovdqa 0x382e2(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2539,7 +2539,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,45,134,3,0 // vbroadcastss 0x3862d(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,165,121,3,0 // vbroadcastss 0x379a5(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
@@ -2610,9 +2610,9 @@ _sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,237,132,3,0 // vbroadcastss 0x384ed(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,101,120,3,0 // vbroadcastss 0x37865(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,11,133,3,0 // vbroadcastss 0x3850b(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,131,120,3,0 // vbroadcastss 0x37883(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,65,249,126,208 // vmovq %xmm10,%r8
@@ -2748,7 +2748,7 @@ _sk_byte_tables_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,193,130,3,0 // vbroadcastss 0x382c1(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,57,118,3,0 // vbroadcastss 0x37639(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2774,7 +2774,7 @@ _sk_byte_tables_rgb_skx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,233,129,3,0 // vbroadcastss 0x381e9(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,97,117,3,0 // vbroadcastss 0x37561(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
@@ -2877,7 +2877,7 @@ _sk_byte_tables_rgb_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,109,128,3,0 // vbroadcastss 0x3806d(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,229,115,3,0 // vbroadcastss 0x373e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2901,7 +2901,7 @@ _sk_table_r_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,161,127,3,0 // vminps 0x37fa1(%rip){1to8},%ymm0,%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,25,115,3,0 // vminps 0x37319(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2922,7 +2922,7 @@ _sk_table_g_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 98,241,116,56,93,13,92,127,3,0 // vminps 0x37f5c(%rip){1to8},%ymm1,%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,212,114,3,0 // vminps 0x372d4(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2943,7 +2943,7 @@ _sk_table_b_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 98,241,108,56,93,21,23,127,3,0 // vminps 0x37f17(%rip){1to8},%ymm2,%ymm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,143,114,3,0 // vminps 0x3728f(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2964,7 +2964,7 @@ _sk_table_a_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 98,241,100,56,93,29,210,126,3,0 // vminps 0x37ed2(%rip){1to8},%ymm3,%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,74,114,3,0 // vminps 0x3724a(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2989,33 +2989,33 @@ _sk_parametric_r_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,255,126,3,0 // vbroadcastss 0x37eff(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,253,126,3,0 // vfmadd213ps 0x37efd(%rip){1to8},%ymm13,%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,239,126,3,0 // vandps 0x37eef(%rip){1to8},%ymm10,%ymm10 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,69,126,3,0 // vorps 0x37e45(%rip){1to8},%ymm10,%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,227,126,3,0 // vfnmadd231ps 0x37ee3(%rip){1to8},%ymm10,%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,221,126,3,0 // vaddps 0x37edd(%rip){1to8},%ymm10,%ymm10 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,216,126,3,0 // vbroadcastss 0x37ed8(%rip),%ymm13 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,119,114,3,0 // vbroadcastss 0x37277(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,117,114,3,0 // vfmadd213ps 0x37275(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,103,114,3,0 // vandps 0x37267(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,189,113,3,0 // vorps 0x371bd(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,91,114,3,0 // vfnmadd231ps 0x3725b(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,85,114,3,0 // vaddps 0x37255(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,80,114,3,0 // vbroadcastss 0x37250(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,184,126,3,0 // vaddps 0x37eb8(%rip){1to8},%ymm0,%ymm0 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,5,178,126,3,0 // vfnmadd231ps 0x37eb2(%rip){1to8},%ymm10,%ymm0 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,173,126,3,0 // vbroadcastss 0x37ead(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,124,56,88,5,48,114,3,0 // vaddps 0x37230(%rip){1to8},%ymm0,%ymm0 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,5,42,114,3,0 // vfnmadd231ps 0x3722a(%rip){1to8},%ymm10,%ymm0 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,37,114,3,0 // vbroadcastss 0x37225(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,163,126,3,0 // vbroadcastss 0x37ea3(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,27,114,3,0 // vbroadcastss 0x3721b(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,147,126,3,0 // vmulps 0x37e93(%rip){1to8},%ymm0,%ymm0 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,124,56,89,5,11,114,3,0 // vmulps 0x3720b(%rip){1to8},%ymm0,%ymm0 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,193,124,95,195 // vmaxps %ymm11,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,169,125,3,0 // vminps 0x37da9(%rip){1to8},%ymm0,%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,33,113,3,0 // vminps 0x37121(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3035,33 +3035,33 @@ _sk_parametric_g_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,238,125,3,0 // vbroadcastss 0x37dee(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,236,125,3,0 // vfmadd213ps 0x37dec(%rip){1to8},%ymm13,%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,222,125,3,0 // vandps 0x37dde(%rip){1to8},%ymm10,%ymm10 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,52,125,3,0 // vorps 0x37d34(%rip){1to8},%ymm10,%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,210,125,3,0 // vfnmadd231ps 0x37dd2(%rip){1to8},%ymm10,%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,204,125,3,0 // vaddps 0x37dcc(%rip){1to8},%ymm10,%ymm10 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,199,125,3,0 // vbroadcastss 0x37dc7(%rip),%ymm13 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,102,113,3,0 // vbroadcastss 0x37166(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,100,113,3,0 // vfmadd213ps 0x37164(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,86,113,3,0 // vandps 0x37156(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,172,112,3,0 // vorps 0x370ac(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,74,113,3,0 // vfnmadd231ps 0x3714a(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,68,113,3,0 // vaddps 0x37144(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,63,113,3,0 // vbroadcastss 0x3713f(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,167,125,3,0 // vaddps 0x37da7(%rip){1to8},%ymm1,%ymm1 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,13,161,125,3,0 // vfnmadd231ps 0x37da1(%rip){1to8},%ymm10,%ymm1 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,156,125,3,0 // vbroadcastss 0x37d9c(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,116,56,88,13,31,113,3,0 // vaddps 0x3711f(%rip){1to8},%ymm1,%ymm1 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,13,25,113,3,0 // vfnmadd231ps 0x37119(%rip){1to8},%ymm10,%ymm1 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,20,113,3,0 // vbroadcastss 0x37114(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,146,125,3,0 // vbroadcastss 0x37d92(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,10,113,3,0 // vbroadcastss 0x3710a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,130,125,3,0 // vmulps 0x37d82(%rip){1to8},%ymm1,%ymm1 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,116,56,89,13,250,112,3,0 // vmulps 0x370fa(%rip){1to8},%ymm1,%ymm1 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,193,116,95,203 // vmaxps %ymm11,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,152,124,3,0 // vminps 0x37c98(%rip){1to8},%ymm1,%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,16,112,3,0 // vminps 0x37010(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3081,33 +3081,33 @@ _sk_parametric_b_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,221,124,3,0 // vbroadcastss 0x37cdd(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,219,124,3,0 // vfmadd213ps 0x37cdb(%rip){1to8},%ymm13,%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,205,124,3,0 // vandps 0x37ccd(%rip){1to8},%ymm10,%ymm10 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,35,124,3,0 // vorps 0x37c23(%rip){1to8},%ymm10,%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,193,124,3,0 // vfnmadd231ps 0x37cc1(%rip){1to8},%ymm10,%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,187,124,3,0 // vaddps 0x37cbb(%rip){1to8},%ymm10,%ymm10 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,182,124,3,0 // vbroadcastss 0x37cb6(%rip),%ymm13 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,85,112,3,0 // vbroadcastss 0x37055(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,83,112,3,0 // vfmadd213ps 0x37053(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,69,112,3,0 // vandps 0x37045(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,155,111,3,0 // vorps 0x36f9b(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,57,112,3,0 // vfnmadd231ps 0x37039(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,51,112,3,0 // vaddps 0x37033(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,46,112,3,0 // vbroadcastss 0x3702e(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,150,124,3,0 // vaddps 0x37c96(%rip){1to8},%ymm2,%ymm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,21,144,124,3,0 // vfnmadd231ps 0x37c90(%rip){1to8},%ymm10,%ymm2 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,139,124,3,0 // vbroadcastss 0x37c8b(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,108,56,88,21,14,112,3,0 // vaddps 0x3700e(%rip){1to8},%ymm2,%ymm2 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,21,8,112,3,0 // vfnmadd231ps 0x37008(%rip){1to8},%ymm10,%ymm2 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,3,112,3,0 // vbroadcastss 0x37003(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,129,124,3,0 // vbroadcastss 0x37c81(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,249,111,3,0 // vbroadcastss 0x36ff9(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,113,124,3,0 // vmulps 0x37c71(%rip){1to8},%ymm2,%ymm2 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,108,56,89,21,233,111,3,0 // vmulps 0x36fe9(%rip){1to8},%ymm2,%ymm2 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,195,109,74,211,192 // vblendvps %ymm12,%ymm11,%ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,211 // vmaxps %ymm11,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,135,123,3,0 // vminps 0x37b87(%rip){1to8},%ymm2,%ymm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,255,110,3,0 // vminps 0x36eff(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3127,33 +3127,33 @@ _sk_parametric_a_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,204,123,3,0 // vbroadcastss 0x37bcc(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,202,123,3,0 // vfmadd213ps 0x37bca(%rip){1to8},%ymm13,%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,188,123,3,0 // vandps 0x37bbc(%rip){1to8},%ymm10,%ymm10 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,18,123,3,0 // vorps 0x37b12(%rip){1to8},%ymm10,%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,176,123,3,0 // vfnmadd231ps 0x37bb0(%rip){1to8},%ymm10,%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,170,123,3,0 // vaddps 0x37baa(%rip){1to8},%ymm10,%ymm10 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,165,123,3,0 // vbroadcastss 0x37ba5(%rip),%ymm13 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,68,111,3,0 // vbroadcastss 0x36f44(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,66,111,3,0 // vfmadd213ps 0x36f42(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,52,111,3,0 // vandps 0x36f34(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,138,110,3,0 // vorps 0x36e8a(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,40,111,3,0 // vfnmadd231ps 0x36f28(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,34,111,3,0 // vaddps 0x36f22(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,29,111,3,0 // vbroadcastss 0x36f1d(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,133,123,3,0 // vaddps 0x37b85(%rip){1to8},%ymm3,%ymm3 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,29,127,123,3,0 // vfnmadd231ps 0x37b7f(%rip){1to8},%ymm10,%ymm3 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,122,123,3,0 // vbroadcastss 0x37b7a(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,100,56,88,29,253,110,3,0 // vaddps 0x36efd(%rip){1to8},%ymm3,%ymm3 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,29,247,110,3,0 // vfnmadd231ps 0x36ef7(%rip){1to8},%ymm10,%ymm3 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,242,110,3,0 // vbroadcastss 0x36ef2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,112,123,3,0 // vbroadcastss 0x37b70(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,232,110,3,0 // vbroadcastss 0x36ee8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,96,123,3,0 // vmulps 0x37b60(%rip){1to8},%ymm3,%ymm3 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,100,56,89,29,216,110,3,0 // vmulps 0x36ed8(%rip){1to8},%ymm3,%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,195,101,74,219,192 // vblendvps %ymm12,%ymm11,%ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,193,100,95,219 // vmaxps %ymm11,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,118,122,3,0 // vminps 0x37a76(%rip){1to8},%ymm3,%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,238,109,3,0 // vminps 0x36dee(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3167,34 +3167,34 @@ _sk_gamma_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,124,40,194,199,0 // vcmpeqps %ymm7,%ymm0,%k0
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,228,122,3,0 // vbroadcastss 0x37ae4(%rip),%ymm11 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,223,122,3,0 // vbroadcastss 0x37adf(%rip),%ymm12 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,92,110,3,0 // vbroadcastss 0x36e5c(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,87,110,3,0 // vbroadcastss 0x36e57(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,49,122,3,0 // vbroadcastss 0x37a31(%rip),%ymm13 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,169,109,3,0 // vbroadcastss 0x36da9(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,197 // vorps %ymm13,%ymm0,%ymm0
- .byte 196,98,125,24,53,199,122,3,0 // vbroadcastss 0x37ac7(%rip),%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,63,110,3,0 // vbroadcastss 0x36e3f(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,189,122,3,0 // vbroadcastss 0x37abd(%rip),%ymm15 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,53,110,3,0 // vbroadcastss 0x36e35(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,125,188,215 // vfnmadd231ps %ymm15,%ymm0,%ymm10
- .byte 98,226,125,40,24,5,178,122,3,0 // vbroadcastss 0x37ab2(%rip),%ymm16 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,42,110,3,0 // vbroadcastss 0x36e2a(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,124,40,88,192 // vaddps %ymm16,%ymm0,%ymm0
- .byte 98,226,125,40,24,13,166,122,3,0 // vbroadcastss 0x37aa6(%rip),%ymm17 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,30,110,3,0 // vbroadcastss 0x36e1e(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,192 // vdivps %ymm0,%ymm17,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
.byte 98,177,124,40,89,194 // vmulps %ymm18,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,226,125,40,24,29,127,122,3,0 // vbroadcastss 0x37a7f(%rip),%ymm19 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,247,109,3,0 // vbroadcastss 0x36df7(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,124,40,88,195 // vaddps %ymm19,%ymm0,%ymm0
- .byte 98,226,125,40,24,37,115,122,3,0 // vbroadcastss 0x37a73(%rip),%ymm20 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,235,109,3,0 // vbroadcastss 0x36deb(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,196 // vfnmadd231ps %ymm20,%ymm10,%ymm0
- .byte 98,226,125,40,24,45,103,122,3,0 // vbroadcastss 0x37a67(%rip),%ymm21 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,223,109,3,0 // vbroadcastss 0x36ddf(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,91,122,3,0 // vbroadcastss 0x37a5b(%rip),%ymm22 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,211,109,3,0 // vbroadcastss 0x36dd3(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,75,122,3,0 // vbroadcastss 0x37a4b(%rip),%ymm10 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,195,109,3,0 // vbroadcastss 0x36dc3(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,199,144 // vblendvps %ymm9,%ymm7,%ymm0,%ymm0
@@ -3254,34 +3254,34 @@ _sk_gamma_dst_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,250,120,3,0 // vbroadcastss 0x378fa(%rip),%ymm11 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,245,120,3,0 // vbroadcastss 0x378f5(%rip),%ymm12 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,114,108,3,0 // vbroadcastss 0x36c72(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,109,108,3,0 // vbroadcastss 0x36c6d(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,228 // vandps %ymm12,%ymm4,%ymm4
- .byte 196,98,125,24,45,71,120,3,0 // vbroadcastss 0x37847(%rip),%ymm13 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,191,107,3,0 // vbroadcastss 0x36bbf(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,92,86,229 // vorps %ymm13,%ymm4,%ymm4
- .byte 196,98,125,24,53,221,120,3,0 // vbroadcastss 0x378dd(%rip),%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,85,108,3,0 // vbroadcastss 0x36c55(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,211,120,3,0 // vbroadcastss 0x378d3(%rip),%ymm15 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,75,108,3,0 // vbroadcastss 0x36c4b(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,93,188,215 // vfnmadd231ps %ymm15,%ymm4,%ymm10
- .byte 98,226,125,40,24,5,200,120,3,0 // vbroadcastss 0x378c8(%rip),%ymm16 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,64,108,3,0 // vbroadcastss 0x36c40(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,92,40,88,224 // vaddps %ymm16,%ymm4,%ymm4
- .byte 98,226,125,40,24,13,188,120,3,0 // vbroadcastss 0x378bc(%rip),%ymm17 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,52,108,3,0 // vbroadcastss 0x36c34(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,228 // vdivps %ymm4,%ymm17,%ymm4
.byte 197,172,92,228 // vsubps %ymm4,%ymm10,%ymm4
.byte 98,177,92,40,89,226 // vmulps %ymm18,%ymm4,%ymm4
.byte 196,99,125,8,212,1 // vroundps $0x1,%ymm4,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,92,92,210 // vsubps %ymm10,%ymm4,%ymm10
- .byte 98,226,125,40,24,29,149,120,3,0 // vbroadcastss 0x37895(%rip),%ymm19 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,13,108,3,0 // vbroadcastss 0x36c0d(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,92,40,88,227 // vaddps %ymm19,%ymm4,%ymm4
- .byte 98,226,125,40,24,37,137,120,3,0 // vbroadcastss 0x37889(%rip),%ymm20 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,1,108,3,0 // vbroadcastss 0x36c01(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,228 // vfnmadd231ps %ymm20,%ymm10,%ymm4
- .byte 98,226,125,40,24,45,125,120,3,0 // vbroadcastss 0x3787d(%rip),%ymm21 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,245,107,3,0 // vbroadcastss 0x36bf5(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,113,120,3,0 // vbroadcastss 0x37871(%rip),%ymm22 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,233,107,3,0 // vbroadcastss 0x36be9(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,92,88,226 // vaddps %ymm10,%ymm4,%ymm4
- .byte 196,98,125,24,21,97,120,3,0 // vbroadcastss 0x37861(%rip),%ymm10 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,217,107,3,0 // vbroadcastss 0x36bd9(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,92,89,226 // vmulps %ymm10,%ymm4,%ymm4
.byte 197,253,91,228 // vcvtps2dq %ymm4,%ymm4
.byte 196,227,93,74,231,144 // vblendvps %ymm9,%ymm7,%ymm4,%ymm4
@@ -3335,23 +3335,23 @@ HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,89,119,3,0 // vbroadcastss 0x37759(%rip),%ymm8 # 3af64 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,184,118,3,0 // vbroadcastss 0x376b8(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,75,119,3,0 // vbroadcastss 0x3774b(%rip),%ymm10 # 3af68 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,209,106,3,0 // vbroadcastss 0x36ad1(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,48,106,3,0 // vbroadcastss 0x36a30(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,195,106,3,0 // vbroadcastss 0x36ac3(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,59,119,3,0 // vfmadd213ps 0x3773b(%rip){1to8},%ymm0,%ymm8 # 3af6c <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 98,241,60,56,89,5,53,119,3,0 // vmulps 0x37735(%rip){1to8},%ymm8,%ymm0 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 98,242,125,56,152,13,47,119,3,0 // vfmadd132ps 0x3772f(%rip){1to8},%ymm0,%ymm1 # 3af74 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 98,242,125,56,156,21,41,119,3,0 // vfnmadd132ps 0x37729(%rip){1to8},%ymm0,%ymm2 # 3af78 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 98,114,125,56,168,5,179,106,3,0 // vfmadd213ps 0x36ab3(%rip){1to8},%ymm0,%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 98,241,60,56,89,5,173,106,3,0 // vmulps 0x36aad(%rip){1to8},%ymm8,%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 98,242,125,56,152,13,167,106,3,0 // vfmadd132ps 0x36aa7(%rip){1to8},%ymm0,%ymm1 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 98,242,125,56,156,21,161,106,3,0 // vfnmadd132ps 0x36aa1(%rip){1to8},%ymm0,%ymm2 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,27,119,3,0 // vbroadcastss 0x3771b(%rip),%ymm9 # 3af7c <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,147,106,3,0 // vbroadcastss 0x36a93(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,9,119,3,0 // vbroadcastss 0x37709(%rip),%ymm11 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,129,106,3,0 // vbroadcastss 0x36a81(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,255,118,3,0 // vbroadcastss 0x376ff(%rip),%ymm12 # 3af84 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,119,106,3,0 // vbroadcastss 0x36a77(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -3368,8 +3368,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,164,118,3,0 // vmulps 0x376a4(%rip){1to8},%ymm8,%ymm0 # 3af88 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 98,241,108,56,89,21,158,118,3,0 // vmulps 0x3769e(%rip){1to8},%ymm2,%ymm2 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 98,241,60,56,89,5,28,106,3,0 // vmulps 0x36a1c(%rip){1to8},%ymm8,%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 98,241,108,56,89,21,22,106,3,0 // vmulps 0x36a16(%rip){1to8},%ymm2,%ymm2 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3386,10 +3386,10 @@ _sk_load_a8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,49 // jne 393b <_sk_load_a8_skx+0x49>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,24,127,3,0 // vpand 0x37f18(%rip),%xmm0,%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,249,219,5,216,113,3,0 // vpand 0x371d8(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,237,117,3,0 // vmulps 0x375ed(%rip){1to8},%ymm0,%ymm3 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,101,105,3,0 // vmulps 0x36965(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3464,10 +3464,10 @@ _sk_load_a8_dst_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,49 // jne 3a45 <_sk_load_a8_dst_skx+0x49>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,14,126,3,0 // vpand 0x37e0e(%rip),%xmm4,%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,217,219,37,206,112,3,0 // vpand 0x370ce(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,227,116,3,0 // vmulps 0x374e3(%rip){1to8},%ymm4,%ymm7 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,61,91,104,3,0 // vmulps 0x3685b(%rip){1to8},%ymm4,%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -3583,7 +3583,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,38,115,3,0 // vmulps 0x37326(%rip){1to8},%ymm0,%ymm3 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,158,102,3,0 // vmulps 0x3669e(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3606,8 +3606,8 @@ _sk_store_a8_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 98,113,60,56,93,5,113,114,3,0 // vminps 0x37271(%rip){1to8},%ymm8,%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 98,113,60,56,89,5,147,114,3,0 // vmulps 0x37293(%rip){1to8},%ymm8,%ymm8 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 98,113,60,56,93,5,233,101,3,0 // vminps 0x365e9(%rip){1to8},%ymm8,%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,113,60,56,89,5,11,102,3,0 // vmulps 0x3660b(%rip){1to8},%ymm8,%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
@@ -3651,7 +3651,7 @@ _sk_store_a8_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe2003ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fc90f0>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fc9d78>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -3672,12 +3672,12 @@ _sk_load_g8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 3d36 <_sk_load_g8_skx+0x4e>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,34,123,3,0 // vpand 0x37b22(%rip),%xmm0,%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,249,219,5,226,109,3,0 // vpand 0x36de2(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,247,113,3,0 // vmulps 0x371f7(%rip){1to8},%ymm0,%ymm0 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,111,101,3,0 // vmulps 0x3656f(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,116,113,3,0 // vbroadcastss 0x37174(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,236,100,3,0 // vbroadcastss 0x364ec(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -3749,12 +3749,12 @@ _sk_load_g8_dst_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 3e46 <_sk_load_g8_dst_skx+0x4e>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,18,122,3,0 // vpand 0x37a12(%rip),%xmm4,%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,217,219,37,210,108,3,0 // vpand 0x36cd2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,231,112,3,0 // vmulps 0x370e7(%rip){1to8},%ymm4,%ymm4 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,37,95,100,3,0 // vmulps 0x3645f(%rip){1to8},%ymm4,%ymm4 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,100,112,3,0 // vbroadcastss 0x37064(%rip),%ymm7 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,220,99,3,0 // vbroadcastss 0x363dc(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -3868,9 +3868,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,34,111,3,0 // vmulps 0x36f22(%rip){1to8},%ymm0,%ymm0 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,154,98,3,0 // vmulps 0x3629a(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,159,110,3,0 // vbroadcastss 0x36e9f(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,23,98,3,0 // vbroadcastss 0x36217(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -3894,17 +3894,17 @@ _sk_load_565_skx:
.byte 117,96 // jne 408d <_sk_load_565_skx+0x7b>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,218,110,3,0 // vpandd 0x36eda(%rip){1to8},%ymm2,%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,82,98,3,0 // vpandd 0x36252(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,208,110,3,0 // vmulps 0x36ed0(%rip){1to8},%ymm0,%ymm0 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,202,110,3,0 // vpandd 0x36eca(%rip){1to8},%ymm2,%ymm1 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,72,98,3,0 // vmulps 0x36248(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,66,98,3,0 // vpandd 0x36242(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,192,110,3,0 // vmulps 0x36ec0(%rip){1to8},%ymm1,%ymm1 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,186,110,3,0 // vpandd 0x36eba(%rip){1to8},%ymm2,%ymm2 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,56,98,3,0 // vmulps 0x36238(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,50,98,3,0 // vpandd 0x36232(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,176,110,3,0 // vmulps 0x36eb0(%rip){1to8},%ymm2,%ymm2 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,40,98,3,0 // vmulps 0x36228(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,21,110,3,0 // vbroadcastss 0x36e15(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,141,97,3,0 // vbroadcastss 0x3618d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -3972,17 +3972,17 @@ _sk_load_565_dst_skx:
.byte 117,96 // jne 41bf <_sk_load_565_dst_skx+0x7b>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,168,109,3,0 // vpandd 0x36da8(%rip){1to8},%ymm6,%ymm4 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,77,56,219,37,32,97,3,0 // vpandd 0x36120(%rip){1to8},%ymm6,%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,158,109,3,0 // vmulps 0x36d9e(%rip){1to8},%ymm4,%ymm4 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,77,56,219,45,152,109,3,0 // vpandd 0x36d98(%rip){1to8},%ymm6,%ymm5 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,92,56,89,37,22,97,3,0 // vmulps 0x36116(%rip){1to8},%ymm4,%ymm4 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,77,56,219,45,16,97,3,0 // vpandd 0x36110(%rip){1to8},%ymm6,%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,142,109,3,0 // vmulps 0x36d8e(%rip){1to8},%ymm5,%ymm5 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,77,56,219,53,136,109,3,0 // vpandd 0x36d88(%rip){1to8},%ymm6,%ymm6 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,84,56,89,45,6,97,3,0 // vmulps 0x36106(%rip){1to8},%ymm5,%ymm5 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,77,56,219,53,0,97,3,0 // vpandd 0x36100(%rip){1to8},%ymm6,%ymm6 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,126,109,3,0 // vmulps 0x36d7e(%rip){1to8},%ymm6,%ymm6 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,76,56,89,53,246,96,3,0 // vmulps 0x360f6(%rip){1to8},%ymm6,%ymm6 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,227,108,3,0 // vbroadcastss 0x36ce3(%rip),%ymm7 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,91,96,3,0 // vbroadcastss 0x3605b(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -4090,17 +4090,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,195,107,3,0 // vpandd 0x36bc3(%rip){1to8},%ymm2,%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,59,95,3,0 // vpandd 0x35f3b(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,185,107,3,0 // vmulps 0x36bb9(%rip){1to8},%ymm0,%ymm0 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,179,107,3,0 // vpandd 0x36bb3(%rip){1to8},%ymm2,%ymm1 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,49,95,3,0 // vmulps 0x35f31(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,43,95,3,0 // vpandd 0x35f2b(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,169,107,3,0 // vmulps 0x36ba9(%rip){1to8},%ymm1,%ymm1 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,163,107,3,0 // vpandd 0x36ba3(%rip){1to8},%ymm2,%ymm2 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,33,95,3,0 // vmulps 0x35f21(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,27,95,3,0 // vpandd 0x35f1b(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,153,107,3,0 // vmulps 0x36b99(%rip){1to8},%ymm2,%ymm2 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,17,95,3,0 // vmulps 0x35f11(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,254,106,3,0 // vbroadcastss 0x36afe(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,118,94,3,0 // vbroadcastss 0x35e76(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -4120,15 +4120,15 @@ _sk_store_565_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,205,106,3,0 // vbroadcastss 0x36acd(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,69,94,3,0 // vbroadcastss 0x35e45(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,175,107,3,0 // vbroadcastss 0x36baf(%rip),%ymm11 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,39,95,3,0 // vbroadcastss 0x35f27(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 98,113,28,56,89,37,144,107,3,0 // vmulps 0x36b90(%rip){1to8},%ymm12,%ymm12 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 98,113,28,56,89,37,8,95,3,0 // vmulps 0x35f08(%rip){1to8},%ymm12,%ymm12 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
.byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
@@ -4202,18 +4202,18 @@ _sk_load_4444_skx:
.byte 117,111 // jne 4556 <_sk_load_4444_skx+0x8a>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,156,106,3,0 // vpandd 0x36a9c(%rip){1to8},%ymm3,%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,20,94,3,0 // vpandd 0x35e14(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,146,106,3,0 // vmulps 0x36a92(%rip){1to8},%ymm0,%ymm0 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,140,106,3,0 // vpandd 0x36a8c(%rip){1to8},%ymm3,%ymm1 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,10,94,3,0 // vmulps 0x35e0a(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,4,94,3,0 // vpandd 0x35e04(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,130,106,3,0 // vmulps 0x36a82(%rip){1to8},%ymm1,%ymm1 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,124,106,3,0 // vpandd 0x36a7c(%rip){1to8},%ymm3,%ymm2 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,250,93,3,0 // vmulps 0x35dfa(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,244,93,3,0 // vpandd 0x35df4(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,114,106,3,0 // vmulps 0x36a72(%rip){1to8},%ymm2,%ymm2 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,108,106,3,0 // vpandd 0x36a6c(%rip){1to8},%ymm3,%ymm3 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,234,93,3,0 // vmulps 0x35dea(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,228,93,3,0 // vpandd 0x35de4(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,98,106,3,0 // vmulps 0x36a62(%rip){1to8},%ymm3,%ymm3 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,218,93,3,0 // vmulps 0x35dda(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4283,18 +4283,18 @@ _sk_load_4444_dst_skx:
.byte 117,111 // jne 4696 <_sk_load_4444_dst_skx+0x8a>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,92,105,3,0 // vpandd 0x3695c(%rip){1to8},%ymm7,%ymm4 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,69,56,219,37,212,92,3,0 // vpandd 0x35cd4(%rip){1to8},%ymm7,%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,82,105,3,0 // vmulps 0x36952(%rip){1to8},%ymm4,%ymm4 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,69,56,219,45,76,105,3,0 // vpandd 0x3694c(%rip){1to8},%ymm7,%ymm5 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,92,56,89,37,202,92,3,0 // vmulps 0x35cca(%rip){1to8},%ymm4,%ymm4 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,69,56,219,45,196,92,3,0 // vpandd 0x35cc4(%rip){1to8},%ymm7,%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,66,105,3,0 // vmulps 0x36942(%rip){1to8},%ymm5,%ymm5 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,69,56,219,53,60,105,3,0 // vpandd 0x3693c(%rip){1to8},%ymm7,%ymm6 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,84,56,89,45,186,92,3,0 // vmulps 0x35cba(%rip){1to8},%ymm5,%ymm5 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,69,56,219,53,180,92,3,0 // vpandd 0x35cb4(%rip){1to8},%ymm7,%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,50,105,3,0 // vmulps 0x36932(%rip){1to8},%ymm6,%ymm6 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,69,56,219,61,44,105,3,0 // vpandd 0x3692c(%rip){1to8},%ymm7,%ymm7 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,76,56,89,53,170,92,3,0 // vmulps 0x35caa(%rip){1to8},%ymm6,%ymm6 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,69,56,219,61,164,92,3,0 // vpandd 0x35ca4(%rip){1to8},%ymm7,%ymm7 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,34,105,3,0 // vmulps 0x36922(%rip){1to8},%ymm7,%ymm7 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,68,56,89,61,154,92,3,0 // vmulps 0x35c9a(%rip){1to8},%ymm7,%ymm7 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4403,18 +4403,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,103,103,3,0 // vpandd 0x36767(%rip){1to8},%ymm3,%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,223,90,3,0 // vpandd 0x35adf(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,93,103,3,0 // vmulps 0x3675d(%rip){1to8},%ymm0,%ymm0 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,87,103,3,0 // vpandd 0x36757(%rip){1to8},%ymm3,%ymm1 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,213,90,3,0 // vmulps 0x35ad5(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,207,90,3,0 // vpandd 0x35acf(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,77,103,3,0 // vmulps 0x3674d(%rip){1to8},%ymm1,%ymm1 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,71,103,3,0 // vpandd 0x36747(%rip){1to8},%ymm3,%ymm2 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,197,90,3,0 // vmulps 0x35ac5(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,191,90,3,0 // vpandd 0x35abf(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,61,103,3,0 // vmulps 0x3673d(%rip){1to8},%ymm2,%ymm2 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,55,103,3,0 // vpandd 0x36737(%rip){1to8},%ymm3,%ymm3 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,181,90,3,0 // vmulps 0x35ab5(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,175,90,3,0 // vpandd 0x35aaf(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,45,103,3,0 // vmulps 0x3672d(%rip){1to8},%ymm3,%ymm3 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,165,90,3,0 // vmulps 0x35aa5(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -4435,9 +4435,9 @@ _sk_store_4444_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,230,101,3,0 // vbroadcastss 0x365e6(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,94,89,3,0 // vbroadcastss 0x3595e(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,240,102,3,0 // vbroadcastss 0x366f0(%rip),%ymm11 # 3afb8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,104,90,3,0 // vbroadcastss 0x35a68(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -4526,7 +4526,7 @@ _sk_load_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,14,101,3,0 // vbroadcastss 0x3650e(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,134,88,3,0 // vbroadcastss 0x35886(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4613,7 +4613,7 @@ _sk_load_8888_dst_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,202,99,3,0 // vbroadcastss 0x363ca(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,66,87,3,0 // vbroadcastss 0x35742(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -4707,7 +4707,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,93,98,3,0 // vbroadcastss 0x3625d(%rip),%ymm3 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,213,85,3,0 // vbroadcastss 0x355d5(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4736,9 +4736,9 @@ _sk_store_8888_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,125,97,3,0 // vbroadcastss 0x3617d(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,245,84,3,0 // vbroadcastss 0x354f5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,155,97,3,0 // vbroadcastss 0x3619b(%rip),%ymm11 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,19,85,3,0 // vbroadcastss 0x35513(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -4826,7 +4826,7 @@ _sk_load_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,166,96,3,0 // vbroadcastss 0x360a6(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,30,84,3,0 // vbroadcastss 0x3541e(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4913,7 +4913,7 @@ _sk_load_bgra_dst_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,98,95,3,0 // vbroadcastss 0x35f62(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,218,82,3,0 // vbroadcastss 0x352da(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -5007,7 +5007,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,245,93,3,0 // vbroadcastss 0x35df5(%rip),%ymm3 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,109,81,3,0 // vbroadcastss 0x3516d(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -5036,9 +5036,9 @@ _sk_store_bgra_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,21,93,3,0 // vbroadcastss 0x35d15(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,141,80,3,0 // vbroadcastss 0x3508d(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,51,93,3,0 // vbroadcastss 0x35d33(%rip),%ymm11 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,171,80,3,0 // vbroadcastss 0x350ab(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -5363,7 +5363,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,131,88,3,0 // vbroadcastss 0x35883(%rip),%ymm10 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,251,75,3,0 // vbroadcastss 0x34bfb(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -5454,7 +5454,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,245,86,3,0 // vbroadcastss 0x356f5(%rip),%ymm9 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,109,74,3,0 // vbroadcastss 0x34a6d(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -5470,7 +5470,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,21,86,3,0 // vbroadcastss 0x35615(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,141,73,3,0 // vbroadcastss 0x3498d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
@@ -5548,9 +5548,9 @@ _sk_store_u16_be_skx:
.byte 73,99,193 // movslq %r9d,%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,185,84,3,0 // vbroadcastss 0x354b9(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,49,72,3,0 // vbroadcastss 0x34831(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,199,85,3,0 // vbroadcastss 0x355c7(%rip),%ymm11 # 3afbc <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,63,73,3,0 // vbroadcastss 0x3493f(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,57,204,1 // vextracti128 $0x1,%ymm9,%xmm12
@@ -5896,7 +5896,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,27,79,3,0 // vmulss 0x34f1b(%rip),%xmm9,%xmm0 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,147,66,3,0 // vmulss 0x34293(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -5919,7 +5919,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,202,78,3,0 // vmulss 0x34eca(%rip),%xmm9,%xmm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,66,66,3,0 // vmulss 0x34242(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -5937,7 +5937,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,145,78,3,0 // vminps 0x34e91(%rip){1to8},%ymm0,%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,9,66,3,0 // vminps 0x34209(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5949,7 +5949,7 @@ _sk_repeat_x_1_skx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,111,78,3,0 // vminps 0x34e6f(%rip){1to8},%ymm0,%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,231,65,3,0 // vminps 0x341e7(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5957,9 +5957,9 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,122,78,3,0 // vbroadcastss 0x34e7a(%rip),%ymm8 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,242,65,3,0 // vbroadcastss 0x341f2(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,79,78,3,0 // vmulps 0x34e4f(%rip){1to8},%ymm0,%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,124,56,89,13,199,65,3,0 // vmulps 0x341c7(%rip){1to8},%ymm0,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
@@ -5968,7 +5968,7 @@ _sk_mirror_x_1_skx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,35,78,3,0 // vminps 0x34e23(%rip){1to8},%ymm0,%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,155,65,3,0 // vminps 0x3419b(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5976,9 +5976,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,53,79,3,0 // vmulps 0x34f35(%rip){1to8},%ymm1,%ymm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 98,242,125,56,184,29,47,79,3,0 // vfmadd231ps 0x34f2f(%rip){1to8},%ymm0,%ymm3 # 3afc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 98,242,109,56,184,29,41,79,3,0 // vfmadd231ps 0x34f29(%rip){1to8},%ymm2,%ymm3 # 3afc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 98,241,116,56,89,29,173,66,3,0 // vmulps 0x342ad(%rip){1to8},%ymm1,%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 98,242,125,56,184,29,167,66,3,0 // vfmadd231ps 0x342a7(%rip){1to8},%ymm0,%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 98,242,109,56,184,29,161,66,3,0 // vfmadd231ps 0x342a1(%rip){1to8},%ymm2,%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -6227,7 +6227,7 @@ _sk_gradient_skx:
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,50,74,3,0 // vbroadcastss 0x34a32(%rip),%ymm2 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,170,61,3,0 // vbroadcastss 0x33daa(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -6327,24 +6327,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,180,73,3,0 // vbroadcastss 0x349b4(%rip),%ymm13 # 3afcc <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 98,114,29,56,168,45,174,73,3,0 // vfmadd213ps 0x349ae(%rip){1to8},%ymm12,%ymm13 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 98,114,29,56,168,45,168,73,3,0 // vfmadd213ps 0x349a8(%rip){1to8},%ymm12,%ymm13 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 98,114,29,56,168,45,162,73,3,0 // vfmadd213ps 0x349a2(%rip){1to8},%ymm12,%ymm13 # 3afd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,44,61,3,0 // vbroadcastss 0x33d2c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 98,114,29,56,168,45,38,61,3,0 // vfmadd213ps 0x33d26(%rip){1to8},%ymm12,%ymm13 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 98,114,29,56,168,45,32,61,3,0 // vfmadd213ps 0x33d20(%rip){1to8},%ymm12,%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 98,114,29,56,168,45,26,61,3,0 // vfmadd213ps 0x33d1a(%rip){1to8},%ymm12,%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,139,73,3,0 // vbroadcastss 0x3498b(%rip),%ymm10 # 3afdc <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,3,61,3,0 // vbroadcastss 0x33d03(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,42,72,3,0 // vbroadcastss 0x3482a(%rip),%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,162,59,3,0 // vbroadcastss 0x33ba2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,13,72,3,0 // vbroadcastss 0x3480d(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,133,59,3,0 // vbroadcastss 0x33b85(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -6373,19 +6373,19 @@ _sk_xy_to_2pt_conical_quadratic_first_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,245,72,3,0 // vmulps 0x348f5(%rip){1to8},%ymm10,%ymm10 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,109,60,3,0 // vmulps 0x33c6d(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,216,72,3,0 // vmulps 0x348d8(%rip){1to8},%ymm8,%ymm8 # 3afe4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,80,60,3,0 // vmulps 0x33c50(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 98,113,60,56,89,5,110,71,3,0 // vmulps 0x3476e(%rip){1to8},%ymm8,%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,60,56,89,5,230,58,3,0 // vmulps 0x33ae6(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6400,19 +6400,19 @@ _sk_xy_to_2pt_conical_quadratic_second_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,132,72,3,0 // vmulps 0x34884(%rip){1to8},%ymm10,%ymm10 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,252,59,3,0 // vmulps 0x33bfc(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,103,72,3,0 // vmulps 0x34867(%rip){1to8},%ymm8,%ymm8 # 3afe4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,223,59,3,0 // vmulps 0x33bdf(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 98,113,44,56,87,13,78,72,3,0 // vxorps 0x3484e(%rip){1to8},%ymm10,%ymm9 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 98,113,60,56,89,5,248,70,3,0 // vmulps 0x346f8(%rip){1to8},%ymm8,%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,44,56,87,13,198,59,3,0 // vxorps 0x33bc6(%rip){1to8},%ymm10,%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,113,60,56,89,5,112,58,3,0 // vmulps 0x33a70(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6427,13 +6427,13 @@ _sk_xy_to_2pt_conical_linear_skx:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 98,113,52,56,89,13,16,72,3,0 // vmulps 0x34810(%rip){1to8},%ymm9,%ymm9 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,52,56,89,13,136,59,3,0 // vmulps 0x33b88(%rip){1to8},%ymm9,%ymm9 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,241,124,56,87,5,247,71,3,0 // vxorps 0x347f7(%rip){1to8},%ymm0,%ymm0 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,241,124,56,87,5,111,59,3,0 // vxorps 0x33b6f(%rip){1to8},%ymm0,%ymm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6475,7 +6475,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,56,70,3,0 // vbroadcastss 0x34638(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,176,57,3,0 // vbroadcastss 0x339b0(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -6510,8 +6510,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,13,71,3,0 // vaddps 0x3470d(%rip){1to8},%ymm0,%ymm0 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,184,69,3,0 // vbroadcastss 0x345b8(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,133,58,3,0 // vaddps 0x33a85(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,48,57,3,0 // vbroadcastss 0x33930(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6524,7 +6524,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,136,69,3,0 // vaddps 0x34588(%rip){1to8},%ymm0,%ymm0 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,124,56,88,5,0,57,3,0 // vaddps 0x33900(%rip){1to8},%ymm0,%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6535,8 +6535,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,187,70,3,0 // vaddps 0x346bb(%rip){1to8},%ymm1,%ymm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,102,69,3,0 // vbroadcastss 0x34566(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,51,58,3,0 // vaddps 0x33a33(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,222,56,3,0 // vbroadcastss 0x338de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6549,7 +6549,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,53,69,3,0 // vaddps 0x34535(%rip){1to8},%ymm1,%ymm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,173,56,3,0 // vaddps 0x338ad(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6560,12 +6560,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,109,70,3,0 // vaddps 0x3466d(%rip){1to8},%ymm0,%ymm0 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,20,69,3,0 // vbroadcastss 0x34514(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,229,57,3,0 // vaddps 0x339e5(%rip){1to8},%ymm0,%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,140,56,3,0 // vbroadcastss 0x3388c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,82,70,3,0 // vbroadcastss 0x34652(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,104,69,3,0 // vfmadd213ps 0x34568(%rip){1to8},%ymm8,%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,202,57,3,0 // vbroadcastss 0x339ca(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,224,56,3,0 // vfmadd213ps 0x338e0(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6577,13 +6577,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,31,70,3,0 // vaddps 0x3461f(%rip){1to8},%ymm0,%ymm0 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,202,68,3,0 // vbroadcastss 0x344ca(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,151,57,3,0 // vaddps 0x33997(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,66,56,3,0 // vbroadcastss 0x33842(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,17,70,3,0 // vbroadcastss 0x34611(%rip),%ymm9 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,11,70,3,0 // vfmadd213ps 0x3460b(%rip){1to8},%ymm8,%ymm9 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,161,68,3,0 // vfmadd213ps 0x344a1(%rip){1to8},%ymm8,%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,251,69,3,0 // vfmadd213ps 0x345fb(%rip){1to8},%ymm8,%ymm9 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,137,57,3,0 // vbroadcastss 0x33989(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,131,57,3,0 // vfmadd213ps 0x33983(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,25,56,3,0 // vfmadd213ps 0x33819(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,115,57,3,0 // vfmadd213ps 0x33973(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6593,13 +6593,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,128,68,3,0 // vbroadcastss 0x34480(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,248,55,3,0 // vbroadcastss 0x337f8(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,199,69,3,0 // vbroadcastss 0x345c7(%rip),%ymm10 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,193,69,3,0 // vfmadd213ps 0x345c1(%rip){1to8},%ymm9,%ymm10 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,63,57,3,0 // vbroadcastss 0x3393f(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,57,57,3,0 // vfmadd213ps 0x33939(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,182,69,3,0 // vfmadd213ps 0x345b6(%rip){1to8},%ymm9,%ymm10 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,46,57,3,0 // vfmadd213ps 0x3392e(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6611,10 +6611,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,142,69,3,0 // vaddps 0x3458e(%rip){1to8},%ymm0,%ymm0 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,124,56,88,5,6,57,3,0 // vaddps 0x33906(%rip){1to8},%ymm0,%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,120,69,3,0 // vbroadcastss 0x34578(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,142,68,3,0 // vfmadd213ps 0x3448e(%rip){1to8},%ymm8,%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,240,56,3,0 // vbroadcastss 0x338f0(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,6,56,3,0 // vfmadd213ps 0x33806(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6626,12 +6626,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,72,69,3,0 // vaddps 0x34548(%rip){1to8},%ymm1,%ymm1 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,239,67,3,0 // vbroadcastss 0x343ef(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,192,56,3,0 // vaddps 0x338c0(%rip){1to8},%ymm1,%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,103,55,3,0 // vbroadcastss 0x33767(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,45,69,3,0 // vbroadcastss 0x3452d(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,67,68,3,0 // vfmadd213ps 0x34443(%rip){1to8},%ymm8,%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,165,56,3,0 // vbroadcastss 0x338a5(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,187,55,3,0 // vfmadd213ps 0x337bb(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6643,13 +6643,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,249,68,3,0 // vaddps 0x344f9(%rip){1to8},%ymm1,%ymm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,164,67,3,0 // vbroadcastss 0x343a4(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,113,56,3,0 // vaddps 0x33871(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,28,55,3,0 // vbroadcastss 0x3371c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,235,68,3,0 // vbroadcastss 0x344eb(%rip),%ymm9 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,229,68,3,0 // vfmadd213ps 0x344e5(%rip){1to8},%ymm8,%ymm9 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,123,67,3,0 // vfmadd213ps 0x3437b(%rip){1to8},%ymm8,%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,213,68,3,0 // vfmadd213ps 0x344d5(%rip){1to8},%ymm8,%ymm9 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,99,56,3,0 // vbroadcastss 0x33863(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,93,56,3,0 // vfmadd213ps 0x3385d(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,243,54,3,0 // vfmadd213ps 0x336f3(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,77,56,3,0 // vfmadd213ps 0x3384d(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6659,13 +6659,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,90,67,3,0 // vbroadcastss 0x3435a(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,210,54,3,0 // vbroadcastss 0x336d2(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,160,68,3,0 // vbroadcastss 0x344a0(%rip),%ymm10 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,154,68,3,0 // vfmadd213ps 0x3449a(%rip){1to8},%ymm9,%ymm10 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,24,56,3,0 // vbroadcastss 0x33818(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,18,56,3,0 // vfmadd213ps 0x33812(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,143,68,3,0 // vfmadd213ps 0x3448f(%rip){1to8},%ymm9,%ymm10 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,7,56,3,0 // vfmadd213ps 0x33807(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6677,10 +6677,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,102,68,3,0 // vaddps 0x34466(%rip){1to8},%ymm1,%ymm1 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,116,56,88,13,222,55,3,0 // vaddps 0x337de(%rip){1to8},%ymm1,%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,80,68,3,0 // vbroadcastss 0x34450(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,102,67,3,0 // vfmadd213ps 0x34366(%rip){1to8},%ymm8,%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,200,55,3,0 // vbroadcastss 0x337c8(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,222,54,3,0 // vfmadd213ps 0x336de(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6806,7 +6806,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,90,66,3,0 // vpbroadcastd 0x3425a(%rip),%ymm27 # 3b008 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,98,125,40,88,29,210,53,3,0 // vpbroadcastd 0x335d2(%rip),%ymm27 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -6819,9 +6819,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,16,66,3,0 // vbroadcastss 0x34210(%rip),%ymm10 # 3b004 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,21,136,53,3,0 // vbroadcastss 0x33588(%rip),%ymm10 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,168,64,3,0 // vpbroadcastd 0x340a8(%rip),%ymm16 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,5,32,52,3,0 // vpbroadcastd 0x33420(%rip),%ymm16 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -7061,7 +7061,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,236,60,3,0 // vpbroadcastd 0x33cec(%rip),%ymm16 # 3b008 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,226,125,40,88,5,100,48,3,0 // vpbroadcastd 0x33064(%rip),%ymm16 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -7073,9 +7073,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,158,60,3,0 // vbroadcastss 0x33c9e(%rip),%ymm0 # 3b004 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,22,48,3,0 // vbroadcastss 0x33016(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,54,59,3,0 // vpbroadcastd 0x33b36(%rip),%ymm17 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,13,174,46,3,0 // vpbroadcastd 0x32eae(%rip),%ymm17 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -7480,7 +7480,7 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,212,49,3,0 // vbroadcastss 0x331d4(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,76,37,3,0 // vbroadcastss 0x3254c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
@@ -7492,126 +7492,16 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,22,51,3,0 // vbroadcastss 0x33316(%rip),%ymm0 # 3b00c <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 98,242,101,56,168,5,16,51,3,0 // vfmadd213ps 0x33310(%rip){1to8},%ymm3,%ymm0 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 98,242,101,56,168,5,10,51,3,0 // vfmadd213ps 0x3330a(%rip){1to8},%ymm3,%ymm0 # 3b014 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- .byte 98,242,101,56,168,5,4,51,3,0 // vfmadd213ps 0x33304(%rip){1to8},%ymm3,%ymm0 # 3b018 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- .byte 98,242,101,56,168,5,254,50,3,0 // vfmadd213ps 0x332fe(%rip){1to8},%ymm3,%ymm0 # 3b01c <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,142,38,3,0 // vbroadcastss 0x3268e(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 98,242,101,56,168,5,136,38,3,0 // vfmadd213ps 0x32688(%rip){1to8},%ymm3,%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 98,242,101,56,168,5,130,38,3,0 // vfmadd213ps 0x32682(%rip){1to8},%ymm3,%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 98,242,101,56,168,5,124,38,3,0 // vfmadd213ps 0x3267c(%rip){1to8},%ymm3,%ymm0 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 98,242,101,56,168,5,118,38,3,0 // vfmadd213ps 0x32676(%rip){1to8},%ymm3,%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
.byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilerp_clamp_8888_skx
-.globl _sk_bilerp_clamp_8888_skx
-FUNCTION(_sk_bilerp_clamp_8888_skx)
-_sk_bilerp_clamp_8888_skx:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 72,131,236,16 // sub $0x10,%rsp
- .byte 98,225,124,40,40,207 // vmovaps %ymm7,%ymm17
- .byte 98,225,124,40,40,214 // vmovaps %ymm6,%ymm18
- .byte 98,225,124,40,40,245 // vmovaps %ymm5,%ymm22
- .byte 98,97,124,40,40,220 // vmovaps %ymm4,%ymm27
- .byte 98,97,124,40,40,225 // vmovaps %ymm1,%ymm28
- .byte 76,141,69,248 // lea -0x8(%rbp),%r8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,57,49,3,0 // vbroadcastss 0x33139(%rip),%ymm2 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,88,218 // vaddps %ymm2,%ymm0,%ymm3
- .byte 196,227,125,8,235,1 // vroundps $0x1,%ymm3,%ymm5
- .byte 197,100,92,213 // vsubps %ymm5,%ymm3,%ymm10
- .byte 98,241,28,32,88,210 // vaddps %ymm2,%ymm28,%ymm2
- .byte 196,227,125,8,218,1 // vroundps $0x1,%ymm2,%ymm3
- .byte 197,236,92,203 // vsubps %ymm3,%ymm2,%ymm1
- .byte 73,185,0,0,0,191,0,0,0,63 // movabs $0x3f000000bf000000,%r9
- .byte 77,137,8 // mov %r9,(%r8)
- .byte 76,141,77,0 // lea 0x0(%rbp),%r9
- .byte 196,226,125,24,21,5,49,3,0 // vbroadcastss 0x33105(%rip),%ymm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,108,92,226 // vsubps %ymm10,%ymm2,%ymm12
- .byte 98,97,108,40,92,233 // vsubps %ymm1,%ymm2,%ymm29
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,109,254,243 // vpaddd %ymm3,%ymm2,%ymm14
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,109,254,251 // vpaddd %ymm3,%ymm2,%ymm15
- .byte 76,139,16 // mov (%rax),%r10
- .byte 98,226,125,40,88,64,2 // vpbroadcastd 0x8(%rax),%ymm16
- .byte 197,250,16,53,28,50,3,0 // vmovss 0x3321c(%rip),%xmm6 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 197,192,87,255 // vxorps %xmm7,%xmm7,%xmm7
- .byte 65,187,17,17,17,17 // mov $0x11111111,%r11d
- .byte 98,226,125,40,24,29,47,49,3,0 // vbroadcastss 0x3312f(%rip),%ymm19 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 235,5 // jmp 7e02 <_sk_bilerp_clamp_8888_skx+0xd4>
- .byte 196,193,122,16,48 // vmovss (%r8),%xmm6
- .byte 98,226,125,40,24,230 // vbroadcastss %xmm6,%ymm20
- .byte 98,129,92,32,88,228 // vaddps %ymm28,%ymm20,%ymm20
- .byte 98,161,20,40,95,236 // vmaxps %ymm20,%ymm13,%ymm21
- .byte 197,248,46,247 // vucomiss %xmm7,%xmm6
- .byte 98,225,124,40,40,225 // vmovaps %ymm1,%ymm20
- .byte 119,12 // ja 7e2c <_sk_bilerp_clamp_8888_skx+0xfe>
- .byte 98,145,124,40,40,229 // vmovaps %ymm29,%ymm4
- .byte 98,225,124,40,40,228 // vmovaps %ymm4,%ymm20
- .byte 98,209,84,32,93,247 // vminps %ymm15,%ymm21,%ymm6
- .byte 197,254,91,246 // vcvttps2dq %ymm6,%ymm6
- .byte 98,226,125,32,64,238 // vpmulld %ymm6,%ymm16,%ymm21
- .byte 49,192 // xor %eax,%eax
- .byte 197,250,16,108,5,248 // vmovss -0x8(%rbp,%rax,1),%xmm5
- .byte 196,226,125,24,245 // vbroadcastss %xmm5,%ymm6
- .byte 197,204,88,240 // vaddps %ymm0,%ymm6,%ymm6
- .byte 197,148,95,246 // vmaxps %ymm6,%ymm13,%ymm6
- .byte 196,193,76,93,246 // vminps %ymm14,%ymm6,%ymm6
- .byte 197,254,91,246 // vcvttps2dq %ymm6,%ymm6
- .byte 98,241,85,32,254,246 // vpaddd %ymm6,%ymm21,%ymm6
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,194,37,144,36,178 // vpgatherdd %ymm11,(%r10,%ymm6,4),%ymm4
- .byte 196,193,123,146,203 // kmovd %r11d,%k1
- .byte 98,241,127,169,111,244 // vmovdqu8 %ymm4,%ymm6{%k1}{z}
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,177,76,40,89,243 // vmulps %ymm19,%ymm6,%ymm6
- .byte 197,165,114,212,8 // vpsrld $0x8,%ymm4,%ymm11
- .byte 98,81,127,169,111,219 // vmovdqu8 %ymm11,%ymm11{%k1}{z}
- .byte 196,65,124,91,219 // vcvtdq2ps %ymm11,%ymm11
- .byte 98,161,36,40,89,251 // vmulps %ymm19,%ymm11,%ymm23
- .byte 197,165,114,212,16 // vpsrld $0x10,%ymm4,%ymm11
- .byte 98,81,127,169,111,219 // vmovdqu8 %ymm11,%ymm11{%k1}{z}
- .byte 196,65,124,91,219 // vcvtdq2ps %ymm11,%ymm11
- .byte 98,33,36,40,89,195 // vmulps %ymm19,%ymm11,%ymm24
- .byte 197,221,114,212,24 // vpsrld $0x18,%ymm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,33,92,40,89,203 // vmulps %ymm19,%ymm4,%ymm25
- .byte 197,248,46,239 // vucomiss %xmm7,%xmm5
- .byte 98,65,124,40,40,210 // vmovaps %ymm10,%ymm26
- .byte 119,6 // ja 7ed1 <_sk_bilerp_clamp_8888_skx+0x1a3>
- .byte 98,65,124,40,40,212 // vmovaps %ymm12,%ymm26
- .byte 98,145,92,32,89,226 // vmulps %ymm26,%ymm20,%ymm4
- .byte 196,98,93,184,206 // vfmadd231ps %ymm6,%ymm4,%ymm9
- .byte 98,50,93,40,184,199 // vfmadd231ps %ymm23,%ymm4,%ymm8
- .byte 98,146,93,40,184,208 // vfmadd231ps %ymm24,%ymm4,%ymm2
- .byte 98,146,93,40,184,217 // vfmadd231ps %ymm25,%ymm4,%ymm3
- .byte 72,131,192,4 // add $0x4,%rax
- .byte 72,131,248,8 // cmp $0x8,%rax
- .byte 15,133,66,255,255,255 // jne 7e3e <_sk_bilerp_clamp_8888_skx+0x110>
- .byte 73,131,192,4 // add $0x4,%r8
- .byte 77,57,200 // cmp %r9,%r8
- .byte 15,133,244,254,255,255 // jne 7dfd <_sk_bilerp_clamp_8888_skx+0xcf>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
- .byte 98,177,124,40,40,238 // vmovaps %ymm22,%ymm5
- .byte 98,177,124,40,40,242 // vmovaps %ymm18,%ymm6
- .byte 98,177,124,40,40,249 // vmovaps %ymm17,%ymm7
- .byte 255,208 // callq *%rax
- .byte 72,131,196,16 // add $0x10,%rsp
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
.byte 144 // nop
.byte 144 // nop
@@ -7636,13 +7526,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 8002 <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 7dfa <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 7fc4 <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 7dbc <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -7661,10 +7551,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 7f85 <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 7d7d <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 7ff5 <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 7ded <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7678,7 +7568,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 7f77 <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 7d6f <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -7707,10 +7597,10 @@ _sk_seed_shader_hsw:
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,94,46,3,0 // vbroadcastss 0x32e5e(%rip),%ymm2 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,222,35,3,0 // vbroadcastss 0x323de(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,83,46,3,0 // vbroadcastss 0x32e53(%rip),%ymm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,211,35,3,0 // vbroadcastss 0x323d3(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -7725,17 +7615,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,234,47,3,0 // vpaddd 0x32fea(%rip),%ymm8,%ymm8 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x470>
+ .byte 197,61,254,5,114,37,3,0 // vpaddd 0x32572(%rip),%ymm8,%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x478>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,23,46,3,0 // vpbroadcastd 0x32e17(%rip),%ymm10 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,151,35,3,0 // vpbroadcastd 0x32397(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,252,45,3,0 // vpbroadcastd 0x32dfc(%rip),%ymm12 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,247,45,3,0 // vpbroadcastd 0x32df7(%rip),%ymm13 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,124,35,3,0 // vpbroadcastd 0x3237c(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,119,35,3,0 // vpbroadcastd 0x32377(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -7750,8 +7640,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,169,45,3,0 // vbroadcastss 0x32da9(%rip),%ymm9 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 196,98,125,24,21,164,45,3,0 // vbroadcastss 0x32da4(%rip),%ymm10 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,41,35,3,0 // vbroadcastss 0x32329(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,21,36,35,3,0 // vbroadcastss 0x32324(%rip),%ymm10 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -7785,7 +7675,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,44,45,3,0 // vbroadcastss 0x32d2c(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,172,34,3,0 // vbroadcastss 0x322ac(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7796,7 +7686,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,19,45,3,0 // vbroadcastss 0x32d13(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,147,34,3,0 // vbroadcastss 0x32293(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -7842,7 +7732,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,178,44,3,0 // vbroadcastss 0x32cb2(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,50,34,3,0 // vbroadcastss 0x32232(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -7858,7 +7748,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,129,44,3,0 // vbroadcastss 0x32c81(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,1,34,3,0 // vbroadcastss 0x32201(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -7897,7 +7787,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,36,44,3,0 // vbroadcastss 0x32c24(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,33,3,0 // vbroadcastss 0x321a4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -7910,7 +7800,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,3,44,3,0 // vbroadcastss 0x32c03(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,131,33,3,0 // vbroadcastss 0x32183(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -7923,7 +7813,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,226,43,3,0 // vbroadcastss 0x32be2(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,98,33,3,0 // vbroadcastss 0x32162(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -7936,7 +7826,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,189,43,3,0 // vbroadcastss 0x32bbd(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,61,33,3,0 // vbroadcastss 0x3213d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -7960,7 +7850,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,132,43,3,0 // vbroadcastss 0x32b84(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,33,3,0 // vbroadcastss 0x32104(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7983,7 +7873,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,51,43,3,0 // vbroadcastss 0x32b33(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,179,32,3,0 // vbroadcastss 0x320b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -8013,7 +7903,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,222,42,3,0 // vbroadcastss 0x32ade(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,94,32,3,0 // vbroadcastss 0x3205e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8047,7 +7937,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,98,42,3,0 // vbroadcastss 0x32a62(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,226,31,3,0 // vbroadcastss 0x31fe2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8072,7 +7962,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,13,42,3,0 // vbroadcastss 0x32a0d(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,141,31,3,0 // vbroadcastss 0x31f8d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8100,7 +7990,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,172,41,3,0 // vbroadcastss 0x329ac(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,44,31,3,0 // vbroadcastss 0x31f2c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8122,7 +8012,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,102,41,3,0 // vbroadcastss 0x32966(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,230,30,3,0 // vbroadcastss 0x31ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8132,7 +8022,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,80,41,3,0 // vbroadcastss 0x32950(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,208,30,3,0 // vbroadcastss 0x31ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -8190,7 +8080,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,96,40,3,0 // vbroadcastss 0x32860(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,224,29,3,0 // vbroadcastss 0x31de0(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -8243,7 +8133,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,122,39,3,0 // vbroadcastss 0x3277a(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,250,28,3,0 // vbroadcastss 0x31cfa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8294,7 +8184,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,174,38,3,0 // vbroadcastss 0x326ae(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,46,28,3,0 // vbroadcastss 0x31c2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8355,10 +8245,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,201,37,3,0 // vbroadcastss 0x325c9(%rip),%ymm11 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,73,27,3,0 // vbroadcastss 0x31b49(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,186,37,3,0 // vbroadcastss 0x325ba(%rip),%ymm12 # 3aebc <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,37,58,27,3,0 // vbroadcastss 0x31b3a(%rip),%ymm12 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -8368,7 +8258,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,105,37,3,0 // vbroadcastss 0x32569(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,233,26,3,0 // vbroadcastss 0x31ae9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -8481,11 +8371,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,129,35,3,0 // vbroadcastss 0x32381(%rip),%ymm14 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,124,35,3,0 // vbroadcastss 0x3237c(%rip),%ymm15 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,1,25,3,0 // vbroadcastss 0x31901(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,252,24,3,0 // vbroadcastss 0x318fc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,109,35,3,0 // vbroadcastss 0x3236d(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,237,24,3,0 // vbroadcastss 0x318ed(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8540,7 +8430,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,46,34,3,0 // vbroadcastss 0x3222e(%rip),%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,174,23,3,0 // vbroadcastss 0x317ae(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8594,11 +8484,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,97,33,3,0 // vbroadcastss 0x32161(%rip),%ymm14 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,92,33,3,0 // vbroadcastss 0x3215c(%rip),%ymm15 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,225,22,3,0 // vbroadcastss 0x316e1(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,220,22,3,0 // vbroadcastss 0x316dc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,77,33,3,0 // vbroadcastss 0x3214d(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,205,22,3,0 // vbroadcastss 0x316cd(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8653,7 +8543,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,14,32,3,0 // vbroadcastss 0x3200e(%rip),%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,142,21,3,0 // vbroadcastss 0x3158e(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8681,11 +8571,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,195,31,3,0 // vbroadcastss 0x31fc3(%rip),%ymm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,190,31,3,0 // vbroadcastss 0x31fbe(%rip),%ymm14 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,67,21,3,0 // vbroadcastss 0x31543(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,62,21,3,0 // vbroadcastss 0x3153e(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,175,31,3,0 // vbroadcastss 0x31faf(%rip),%ymm15 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,47,21,3,0 // vbroadcastss 0x3152f(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8741,7 +8631,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,101,30,3,0 // vbroadcastss 0x31e65(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,229,19,3,0 // vbroadcastss 0x313e5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8769,11 +8659,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,26,30,3,0 // vbroadcastss 0x31e1a(%rip),%ymm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,21,30,3,0 // vbroadcastss 0x31e15(%rip),%ymm14 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,154,19,3,0 // vbroadcastss 0x3139a(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,149,19,3,0 // vbroadcastss 0x31395(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,6,30,3,0 // vbroadcastss 0x31e06(%rip),%ymm15 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,134,19,3,0 // vbroadcastss 0x31386(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8829,7 +8719,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,188,28,3,0 // vbroadcastss 0x31cbc(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,60,18,3,0 // vbroadcastss 0x3123c(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8858,20 +8748,20 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 9326 <_sk_srcover_rgba_8888_hsw+0x100>
+ .byte 15,133,224,0,0,0 // jne 911e <_sk_srcover_rgba_8888_hsw+0x100>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,44,30,3,0 // vpand 0x31e2c(%rip),%ymm7,%ymm4 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x490>
+ .byte 197,197,219,37,180,19,3,0 // vpand 0x313b4(%rip),%ymm7,%ymm4 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0x498>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,63,30,3,0 // vpshufb 0x31e3f(%rip),%ymm7,%ymm5 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x4b0>
+ .byte 196,226,69,0,45,199,19,3,0 // vpshufb 0x313c7(%rip),%ymm7,%ymm5 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x4b8>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,82,30,3,0 // vpshufb 0x31e52(%rip),%ymm7,%ymm6 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x4d0>
+ .byte 196,226,69,0,53,218,19,3,0 // vpshufb 0x313da(%rip),%ymm7,%ymm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x4d8>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,23,28,3,0 // vbroadcastss 0x31c17(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,151,17,3,0 // vbroadcastss 0x31197(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,54,28,3,0 // vbroadcastss 0x31c36(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,182,17,3,0 // vbroadcastss 0x311b6(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -8899,7 +8789,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 935d <_sk_srcover_rgba_8888_hsw+0x137>
+ .byte 117,65 // jne 9155 <_sk_srcover_rgba_8888_hsw+0x137>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8908,33 +8798,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,14,255,255,255 // ja 924c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,14,255,255,255 // ja 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,255,0,0,0 // lea 0xff(%rip),%r10 # 9448 <_sk_srcover_rgba_8888_hsw+0x222>
+ .byte 76,141,21,255,0,0,0 // lea 0xff(%rip),%r10 # 9240 <_sk_srcover_rgba_8888_hsw+0x222>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,239,254,255,255 // jmpq 924c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,239,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 9322 <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 119,181 // ja 911a <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 9464 <_sk_srcover_rgba_8888_hsw+0x23e>
+ .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 925c <_sk_srcover_rgba_8888_hsw+0x23e>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 9322 <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 235,153 // jmp 911a <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,156,254,255,255 // jmpq 924c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,156,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8947,10 +8837,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,77,254,255,255 // jmpq 924c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,77,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 9322 <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 233,16,255,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8958,7 +8848,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 9322 <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 233,220,254,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 102,144 // xchg %ax,%ax
.byte 10,255 // or %bh,%bh
.byte 255 // (bad)
@@ -8970,11 +8860,11 @@ _sk_srcover_rgba_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 945d <_sk_srcover_rgba_8888_hsw+0x237>
+ .byte 126,255 // jle 9255 <_sk_srcover_rgba_8888_hsw+0x237>
.byte 255 // (bad)
.byte 255,104,255 // ljmp *-0x1(%rax)
.byte 255 // (bad)
- .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa4009468 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fce878>
+ .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa4009260 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fcf2f8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,155,255,255,255,215 // lcall *-0x28000001(%rbx)
@@ -9001,20 +8891,20 @@ _sk_srcover_bgra_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 9580 <_sk_srcover_bgra_8888_hsw+0x100>
+ .byte 15,133,224,0,0,0 // jne 9378 <_sk_srcover_bgra_8888_hsw+0x100>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,50,28,3,0 // vpand 0x31c32(%rip),%ymm7,%ymm4 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x4f0>
+ .byte 197,197,219,37,186,17,3,0 // vpand 0x311ba(%rip),%ymm7,%ymm4 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x4f8>
.byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6
- .byte 196,226,69,0,37,69,28,3,0 // vpshufb 0x31c45(%rip),%ymm7,%ymm4 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x510>
+ .byte 196,226,69,0,37,205,17,3,0 // vpshufb 0x311cd(%rip),%ymm7,%ymm4 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x518>
.byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,226,69,0,37,88,28,3,0 // vpshufb 0x31c58(%rip),%ymm7,%ymm4 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x530>
+ .byte 196,226,69,0,37,224,17,3,0 // vpshufb 0x311e0(%rip),%ymm7,%ymm4 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x538>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,189,25,3,0 // vbroadcastss 0x319bd(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,61,15,3,0 // vbroadcastss 0x30f3d(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,220,25,3,0 // vbroadcastss 0x319dc(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,92,15,3,0 // vbroadcastss 0x30f5c(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -9042,7 +8932,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 95b7 <_sk_srcover_bgra_8888_hsw+0x137>
+ .byte 117,65 // jne 93af <_sk_srcover_bgra_8888_hsw+0x137>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9051,33 +8941,33 @@ _sk_srcover_bgra_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,14,255,255,255 // ja 94a6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 15,135,14,255,255,255 // ja 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,253,0,0,0 // lea 0xfd(%rip),%r10 # 96a0 <_sk_srcover_bgra_8888_hsw+0x220>
+ .byte 76,141,21,253,0,0,0 // lea 0xfd(%rip),%r10 # 9498 <_sk_srcover_bgra_8888_hsw+0x220>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,239,254,255,255 // jmpq 94a6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,239,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 957c <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 119,181 // ja 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 96bc <_sk_srcover_bgra_8888_hsw+0x23c>
+ .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 94b4 <_sk_srcover_bgra_8888_hsw+0x23c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 957c <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 235,153 // jmp 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,156,254,255,255 // jmpq 94a6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,156,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -9090,10 +8980,10 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,77,254,255,255 // jmpq 94a6 <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,77,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 957c <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 233,16,255,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -9101,7 +8991,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 957c <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 233,220,254,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 12,255 // or $0xff,%al
.byte 255 // (bad)
.byte 255,89,255 // lcall *-0x1(%rcx)
@@ -9148,7 +9038,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,162,23,3,0 // vbroadcastss 0x317a2(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,34,13,3,0 // vbroadcastss 0x30d22(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -9160,7 +9050,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,129,23,3,0 // vbroadcastss 0x31781(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,1,13,3,0 // vbroadcastss 0x30d01(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -9172,7 +9062,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,99,23,3,0 // vbroadcastss 0x31763(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,227,12,3,0 // vbroadcastss 0x30ce3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -9205,7 +9095,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,30,23,3,0 // vbroadcastss 0x3171e(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,158,12,3,0 // vbroadcastss 0x30c9e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -9259,9 +9149,9 @@ HIDDEN _sk_unpremul_hsw
.globl _sk_unpremul_hsw
FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
- .byte 196,98,125,24,5,185,22,3,0 // vbroadcastss 0x316b9(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,57,12,3,0 // vbroadcastss 0x30c39(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,220,22,3,0 // vbroadcastss 0x316dc(%rip),%ymm9 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,92,12,3,0 // vbroadcastss 0x30c5c(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -9275,16 +9165,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,182,22,3,0 // vbroadcastss 0x316b6(%rip),%ymm8 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,54,12,3,0 // vbroadcastss 0x30c36(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,168,22,3,0 // vbroadcastss 0x316a8(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,135,22,3,0 // vbroadcastss 0x31687(%rip),%ymm12 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,40,12,3,0 // vbroadcastss 0x30c28(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,7,12,3,0 // vbroadcastss 0x30c07(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,144,22,3,0 // vbroadcastss 0x31690(%rip),%ymm14 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,16,12,3,0 // vbroadcastss 0x30c10(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,134,22,3,0 // vbroadcastss 0x31686(%rip),%ymm10 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,6,12,3,0 // vbroadcastss 0x30c06(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -9307,16 +9197,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,30,22,3,0 // vbroadcastss 0x3161e(%rip),%ymm8 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,158,11,3,0 // vbroadcastss 0x30b9e(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,16,22,3,0 // vbroadcastss 0x31610(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,239,21,3,0 // vbroadcastss 0x315ef(%rip),%ymm12 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,144,11,3,0 // vbroadcastss 0x30b90(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,111,11,3,0 // vbroadcastss 0x30b6f(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,248,21,3,0 // vbroadcastss 0x315f8(%rip),%ymm14 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,120,11,3,0 // vbroadcastss 0x30b78(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,238,21,3,0 // vbroadcastss 0x315ee(%rip),%ymm10 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,110,11,3,0 // vbroadcastss 0x30b6e(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -9340,19 +9230,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,146,21,3,0 // vbroadcastss 0x31592(%rip),%ymm8 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,18,11,3,0 // vbroadcastss 0x30b12(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,136,21,3,0 // vbroadcastss 0x31588(%rip),%ymm11 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,131,21,3,0 // vbroadcastss 0x31583(%rip),%ymm12 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,8,11,3,0 // vbroadcastss 0x30b08(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,3,11,3,0 // vbroadcastss 0x30b03(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,164,22,3,0 // vbroadcastss 0x316a4(%rip),%ymm14 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,36,12,3,0 // vbroadcastss 0x30c24(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,154,22,3,0 // vbroadcastss 0x3169a(%rip),%ymm15 # 3b024 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,26,12,3,0 // vbroadcastss 0x30c1a(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,86,21,3,0 // vbroadcastss 0x31556(%rip),%ymm13 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,214,10,3,0 // vbroadcastss 0x30ad6(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -9386,26 +9276,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,109,20,3,0 // vbroadcastss 0x3146d(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,237,9,3,0 // vbroadcastss 0x309ed(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,178,20,3,0 // vbroadcastss 0x314b2(%rip),%ymm14 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,53,50,10,3,0 // vbroadcastss 0x30a32(%rip),%ymm14 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,153,20,3,0 // vbroadcastss 0x31499(%rip),%ymm14 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,25,10,3,0 // vbroadcastss 0x30a19(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,135,20,3,0 // vbroadcastss 0x31487(%rip),%ymm14 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,53,7,10,3,0 // vbroadcastss 0x30a07(%rip),%ymm14 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,250,19,3,0 // vbroadcastss 0x313fa(%rip),%ymm11 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,122,9,3,0 // vbroadcastss 0x3097a(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -9415,7 +9305,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,45,20,3,0 // vbroadcastss 0x3142d(%rip),%ymm8 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,173,9,3,0 // vbroadcastss 0x309ad(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9432,30 +9322,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,134,19,3,0 // vbroadcastss 0x31386(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,6,9,3,0 // vbroadcastss 0x30906(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,201,19,3,0 // vbroadcastss 0x313c9(%rip),%ymm9 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,13,73,9,3,0 // vbroadcastss 0x30949(%rip),%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,199,19,3,0 // vbroadcastss 0x313c7(%rip),%ymm11 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,71,9,3,0 // vbroadcastss 0x30947(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,153,19,3,0 // vbroadcastss 0x31399(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,45,25,9,3,0 // vbroadcastss 0x30919(%rip),%ymm13 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,147,19,3,0 // vbroadcastss 0x31393(%rip),%ymm14 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,19,9,3,0 // vbroadcastss 0x30913(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,141,19,3,0 // vbroadcastss 0x3138d(%rip),%ymm3 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,29,13,9,3,0 // vbroadcastss 0x3090d(%rip),%ymm3 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,100,19,3,0 // vbroadcastss 0x31364(%rip),%ymm12 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,37,228,8,3,0 // vbroadcastss 0x308e4(%rip),%ymm12 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -9471,7 +9361,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,24,19,3,0 // vbroadcastss 0x31318(%rip),%ymm0 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,152,8,3,0 // vbroadcastss 0x30898(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -9523,12 +9413,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9ceb <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 9ae3 <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,113,27,3,0 // vpand 0x31b71(%rip),%xmm8,%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,57,219,5,57,16,3,0 // vpand 0x31039(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,70,18,3,0 // vbroadcastss 0x31246(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,198,7,3,0 // vbroadcastss 0x307c6(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9541,15 +9431,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 9cb7 <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9d84 <_sk_scale_u8_hsw+0xeb>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9b7c <_sk_scale_u8_hsw+0xeb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 9cb7 <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9557,7 +9447,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 9cb7 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9568,7 +9458,7 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 9cb7 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -9602,23 +9492,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 9e60 <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 9c58 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,73,17,3,0 // vpbroadcastd 0x31149(%rip),%ymm9 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,201,6,3,0 // vpbroadcastd 0x306c9(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,58,17,3,0 // vbroadcastss 0x3113a(%rip),%ymm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,186,6,3,0 // vbroadcastss 0x306ba(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,48,17,3,0 // vpbroadcastd 0x31130(%rip),%ymm10 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,176,6,3,0 // vpbroadcastd 0x306b0(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,33,17,3,0 // vbroadcastss 0x31121(%rip),%ymm11 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,161,6,3,0 // vbroadcastss 0x306a1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,23,17,3,0 // vpbroadcastd 0x31117(%rip),%ymm11 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,151,6,3,0 // vpbroadcastd 0x30697(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,8,17,3,0 // vbroadcastss 0x31108(%rip),%ymm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,136,6,3,0 // vbroadcastss 0x30688(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9637,27 +9527,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 9dc5 <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 9bbd <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9ee8 <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9ce0 <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 9dc5 <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 9dc5 <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 9dc5 <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9707,12 +9597,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 9f99 <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9d91 <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,215,24,3,0 // vpand 0x318d7(%rip),%xmm8,%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,57,219,5,159,13,3,0 // vpand 0x30d9f(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,172,15,3,0 // vbroadcastss 0x30fac(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,44,5,3,0 // vbroadcastss 0x3052c(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -9729,15 +9619,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 9f51 <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # a034 <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9e2c <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 9f51 <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9745,7 +9635,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 9f51 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9756,7 +9646,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 9f51 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -9764,7 +9654,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00a044 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcf454>
+ .byte 232,255,255,255,221 // callq ffffffffde009e3c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcfed4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -9787,23 +9677,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne a124 <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne 9f1c <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,153,14,3,0 // vpbroadcastd 0x30e99(%rip),%ymm9 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,25,4,3,0 // vpbroadcastd 0x30419(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,138,14,3,0 // vbroadcastss 0x30e8a(%rip),%ymm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,10,4,3,0 // vbroadcastss 0x3040a(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,128,14,3,0 // vpbroadcastd 0x30e80(%rip),%ymm10 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,0,4,3,0 // vpbroadcastd 0x30400(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,113,14,3,0 // vbroadcastss 0x30e71(%rip),%ymm11 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,241,3,3,0 // vbroadcastss 0x303f1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,103,14,3,0 // vpbroadcastd 0x30e67(%rip),%ymm11 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,231,3,3,0 // vpbroadcastd 0x303e7(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,88,14,3,0 // vbroadcastss 0x30e58(%rip),%ymm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,216,3,3,0 // vbroadcastss 0x303d8(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9826,27 +9716,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja a075 <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja 9e6d <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # a1ac <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9fa4 <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq a075 <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq a075 <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq a075 <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9875,9 +9765,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne a246 <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne a03e <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,96,15,3,0 // vpand 0x30f60(%rip),%ymm3,%ymm1 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x550>
+ .byte 197,229,219,13,232,4,3,0 // vpand 0x304e8(%rip),%ymm3,%ymm1 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x558>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -9885,16 +9775,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,87,15,3,0 // vpshufb 0x30f57(%rip),%ymm3,%ymm9 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x570>
+ .byte 196,98,101,0,13,223,4,3,0 // vpshufb 0x304df(%rip),%ymm3,%ymm9 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x578>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,91,15,3,0 // vpshufb 0x30f5b(%rip),%ymm3,%ymm9 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x590>
+ .byte 196,98,101,0,13,227,4,3,0 // vpshufb 0x304e3(%rip),%ymm3,%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x598>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,219,12,3,0 // vbroadcastss 0x30cdb(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,91,2,3,0 // vbroadcastss 0x3025b(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9903,21 +9793,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja a1d8 <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja 9fd0 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a2f4 <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a0ec <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq a1d8 <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq a1d8 <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -9930,8 +9820,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq a1d8 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg a2f5 <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg a0ed <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -9959,7 +9849,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne a3fd <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne a1f5 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -9975,7 +9865,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,184,20,3,0 // vmovdqa 0x314b8(%rip),%xmm11 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,121,111,29,128,9,3,0 // vmovdqa 0x30980(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -10000,36 +9890,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,64,11,3,0 // vbroadcastss 0x30b40(%rip),%ymm8 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,5,192,0,3,0 // vbroadcastss 0x300c0(%rip),%ymm8 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je a463 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je a25b <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb a463 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb a25b <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je a470 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je a268 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb a470 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb a268 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je a341 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb a341 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq a341 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq a341 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq a341 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -10039,7 +9929,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne a559 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne a351 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -10060,7 +9950,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,56,19,3,0 // vmovdqa 0x31338(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,249,111,29,0,8,3,0 // vmovdqa 0x30800(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -10080,69 +9970,69 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,73,9,3,0 // vbroadcastss 0x30949(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,201,254,2,0 // vbroadcastss 0x2fec9(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne a591 <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne a389 <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq a4c0 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb a5db <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb a3d3 <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne a5f5 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne a3ed <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq a4c0 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq a4c0 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb a636 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb a42e <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne a647 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne a43f <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq a4c0 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq a4c0 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb a67a <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb a472 <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq a4c0 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq a4c0 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
@@ -10151,9 +10041,9 @@ _sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,9,8,3,0 // vbroadcastss 0x30809(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,137,253,2,0 // vbroadcastss 0x2fd89(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,39,8,3,0 // vbroadcastss 0x30827(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,167,253,2,0 // vbroadcastss 0x2fda7(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,65,249,126,208 // vmovq %xmm10,%r8
@@ -10289,7 +10179,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,221,5,3,0 // vbroadcastss 0x305dd(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,93,251,2,0 // vbroadcastss 0x2fb5d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10316,7 +10206,7 @@ _sk_byte_tables_rgb_hsw:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,2,5,3,0 // vbroadcastss 0x30502(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,130,250,2,0 // vbroadcastss 0x2fa82(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
@@ -10419,7 +10309,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,134,3,3,0 // vbroadcastss 0x30386(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,6,249,2,0 // vbroadcastss 0x2f906(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10444,7 +10334,7 @@ _sk_table_r_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,21,185,2,3,0 // vbroadcastss 0x302b9(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,57,248,2,0 // vbroadcastss 0x2f839(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
@@ -10467,7 +10357,7 @@ _sk_table_g_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,21,110,2,3,0 // vbroadcastss 0x3026e(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,238,247,2,0 // vbroadcastss 0x2f7ee(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
@@ -10490,7 +10380,7 @@ _sk_table_b_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,21,35,2,3,0 // vbroadcastss 0x30223(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,163,247,2,0 // vbroadcastss 0x2f7a3(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,210 // vminps %ymm10,%ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -10513,7 +10403,7 @@ _sk_table_a_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,21,216,1,3,0 // vbroadcastss 0x301d8(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,88,247,2,0 // vbroadcastss 0x2f758(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,218 // vminps %ymm10,%ymm3,%ymm3
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
@@ -10540,33 +10430,33 @@ _sk_parametric_r_hsw:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,3,2,3,0 // vbroadcastss 0x30203(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,254,1,3,0 // vbroadcastss 0x301fe(%rip),%ymm15 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,131,247,2,0 // vbroadcastss 0x2f783(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,126,247,2,0 // vbroadcastss 0x2f77e(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,80,1,3,0 // vbroadcastss 0x30150(%rip),%ymm15 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,208,246,2,0 // vbroadcastss 0x2f6d0(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,230,1,3,0 // vbroadcastss 0x301e6(%rip),%ymm15 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,102,247,2,0 // vbroadcastss 0x2f766(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,220,1,3,0 // vbroadcastss 0x301dc(%rip),%ymm13 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,92,247,2,0 // vbroadcastss 0x2f75c(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,210,1,3,0 // vbroadcastss 0x301d2(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,82,247,2,0 // vbroadcastss 0x2f752(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,200,1,3,0 // vbroadcastss 0x301c8(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,72,247,2,0 // vbroadcastss 0x2f748(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,169,1,3,0 // vbroadcastss 0x301a9(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,41,247,2,0 // vbroadcastss 0x2f729(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,159,1,3,0 // vbroadcastss 0x3019f(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,31,247,2,0 // vbroadcastss 0x2f71f(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,149,1,3,0 // vbroadcastss 0x30195(%rip),%ymm11 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,21,247,2,0 // vbroadcastss 0x2f715(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,139,1,3,0 // vbroadcastss 0x3018b(%rip),%ymm12 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,11,247,2,0 // vbroadcastss 0x2f70b(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,124,1,3,0 // vbroadcastss 0x3017c(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,252,246,2,0 // vbroadcastss 0x2f6fc(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -10574,7 +10464,7 @@ _sk_parametric_r_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,142,0,3,0 // vbroadcastss 0x3008e(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,14,246,2,0 // vbroadcastss 0x2f60e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10596,33 +10486,33 @@ _sk_parametric_g_hsw:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,209,0,3,0 // vbroadcastss 0x300d1(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,204,0,3,0 // vbroadcastss 0x300cc(%rip),%ymm15 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,81,246,2,0 // vbroadcastss 0x2f651(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,76,246,2,0 // vbroadcastss 0x2f64c(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,30,0,3,0 // vbroadcastss 0x3001e(%rip),%ymm15 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,158,245,2,0 // vbroadcastss 0x2f59e(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,180,0,3,0 // vbroadcastss 0x300b4(%rip),%ymm15 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,52,246,2,0 // vbroadcastss 0x2f634(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,170,0,3,0 // vbroadcastss 0x300aa(%rip),%ymm13 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,42,246,2,0 // vbroadcastss 0x2f62a(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,160,0,3,0 // vbroadcastss 0x300a0(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,32,246,2,0 // vbroadcastss 0x2f620(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,150,0,3,0 // vbroadcastss 0x30096(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,22,246,2,0 // vbroadcastss 0x2f616(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,119,0,3,0 // vbroadcastss 0x30077(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,247,245,2,0 // vbroadcastss 0x2f5f7(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,109,0,3,0 // vbroadcastss 0x3006d(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,237,245,2,0 // vbroadcastss 0x2f5ed(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,99,0,3,0 // vbroadcastss 0x30063(%rip),%ymm11 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,227,245,2,0 // vbroadcastss 0x2f5e3(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,89,0,3,0 // vbroadcastss 0x30059(%rip),%ymm12 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,217,245,2,0 // vbroadcastss 0x2f5d9(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,74,0,3,0 // vbroadcastss 0x3004a(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,202,245,2,0 // vbroadcastss 0x2f5ca(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -10630,7 +10520,7 @@ _sk_parametric_g_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,92,255,2,0 // vbroadcastss 0x2ff5c(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,220,244,2,0 // vbroadcastss 0x2f4dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10652,33 +10542,33 @@ _sk_parametric_b_hsw:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,159,255,2,0 // vbroadcastss 0x2ff9f(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,154,255,2,0 // vbroadcastss 0x2ff9a(%rip),%ymm15 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,31,245,2,0 // vbroadcastss 0x2f51f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,26,245,2,0 // vbroadcastss 0x2f51a(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,236,254,2,0 // vbroadcastss 0x2feec(%rip),%ymm15 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,108,244,2,0 // vbroadcastss 0x2f46c(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,130,255,2,0 // vbroadcastss 0x2ff82(%rip),%ymm15 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,2,245,2,0 // vbroadcastss 0x2f502(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,120,255,2,0 // vbroadcastss 0x2ff78(%rip),%ymm13 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,248,244,2,0 // vbroadcastss 0x2f4f8(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,110,255,2,0 // vbroadcastss 0x2ff6e(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,238,244,2,0 // vbroadcastss 0x2f4ee(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,100,255,2,0 // vbroadcastss 0x2ff64(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,228,244,2,0 // vbroadcastss 0x2f4e4(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,69,255,2,0 // vbroadcastss 0x2ff45(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,197,244,2,0 // vbroadcastss 0x2f4c5(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,59,255,2,0 // vbroadcastss 0x2ff3b(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,187,244,2,0 // vbroadcastss 0x2f4bb(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,49,255,2,0 // vbroadcastss 0x2ff31(%rip),%ymm11 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,177,244,2,0 // vbroadcastss 0x2f4b1(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,39,255,2,0 // vbroadcastss 0x2ff27(%rip),%ymm12 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,167,244,2,0 // vbroadcastss 0x2f4a7(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,24,255,2,0 // vbroadcastss 0x2ff18(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,152,244,2,0 // vbroadcastss 0x2f498(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -10686,7 +10576,7 @@ _sk_parametric_b_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,42,254,2,0 // vbroadcastss 0x2fe2a(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,170,243,2,0 // vbroadcastss 0x2f3aa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10708,33 +10598,33 @@ _sk_parametric_a_hsw:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,109,254,2,0 // vbroadcastss 0x2fe6d(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,104,254,2,0 // vbroadcastss 0x2fe68(%rip),%ymm15 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,237,243,2,0 // vbroadcastss 0x2f3ed(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,232,243,2,0 // vbroadcastss 0x2f3e8(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,186,253,2,0 // vbroadcastss 0x2fdba(%rip),%ymm15 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,58,243,2,0 // vbroadcastss 0x2f33a(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,80,254,2,0 // vbroadcastss 0x2fe50(%rip),%ymm15 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,208,243,2,0 // vbroadcastss 0x2f3d0(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,70,254,2,0 // vbroadcastss 0x2fe46(%rip),%ymm13 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,198,243,2,0 // vbroadcastss 0x2f3c6(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,60,254,2,0 // vbroadcastss 0x2fe3c(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,188,243,2,0 // vbroadcastss 0x2f3bc(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,50,254,2,0 // vbroadcastss 0x2fe32(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,178,243,2,0 // vbroadcastss 0x2f3b2(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,19,254,2,0 // vbroadcastss 0x2fe13(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,147,243,2,0 // vbroadcastss 0x2f393(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,9,254,2,0 // vbroadcastss 0x2fe09(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,137,243,2,0 // vbroadcastss 0x2f389(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,255,253,2,0 // vbroadcastss 0x2fdff(%rip),%ymm11 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,127,243,2,0 // vbroadcastss 0x2f37f(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,245,253,2,0 // vbroadcastss 0x2fdf5(%rip),%ymm12 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,117,243,2,0 // vbroadcastss 0x2f375(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,230,253,2,0 // vbroadcastss 0x2fde6(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,102,243,2,0 // vbroadcastss 0x2f366(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -10742,7 +10632,7 @@ _sk_parametric_a_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,248,252,2,0 // vbroadcastss 0x2fcf8(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,120,242,2,0 // vbroadcastss 0x2f278(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10760,24 +10650,24 @@ _sk_gamma_hsw:
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,65,253,2,0 // vbroadcastss 0x2fd41(%rip),%ymm11 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,37,60,253,2,0 // vbroadcastss 0x2fd3c(%rip),%ymm4 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,193,242,2,0 // vbroadcastss 0x2f2c1(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,37,188,242,2,0 // vbroadcastss 0x2f2bc(%rip),%ymm4 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,124,84,228 // vandps %ymm4,%ymm0,%ymm12
- .byte 196,226,125,24,29,143,252,2,0 // vbroadcastss 0x2fc8f(%rip),%ymm3 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,15,242,2,0 // vbroadcastss 0x2f20f(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,92,36,32 // vmovups %ymm3,0x20(%rsp)
.byte 197,28,86,227 // vorps %ymm3,%ymm12,%ymm12
- .byte 196,98,125,24,45,32,253,2,0 // vbroadcastss 0x2fd20(%rip),%ymm13 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,160,242,2,0 // vbroadcastss 0x2f2a0(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,124,91,241 // vcvtdq2ps %ymm1,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,250 // vcvtdq2ps %ymm2,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,4,253,2,0 // vbroadcastss 0x2fd04(%rip),%ymm5 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,132,242,2,0 // vbroadcastss 0x2f284(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,250,252,2,0 // vbroadcastss 0x2fcfa(%rip),%ymm1 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,122,242,2,0 // vbroadcastss 0x2f27a(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,5,235,252,2,0 // vbroadcastss 0x2fceb(%rip),%ymm8 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,5,107,242,2,0 // vbroadcastss 0x2f26b(%rip),%ymm8 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,60,94,228 // vdivps %ymm12,%ymm8,%ymm12
.byte 197,124,17,68,36,128 // vmovups %ymm8,-0x80(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10786,18 +10676,18 @@ _sk_gamma_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,192,252,2,0 // vbroadcastss 0x2fcc0(%rip),%ymm11 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,64,242,2,0 // vbroadcastss 0x2f240(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,182,252,2,0 // vbroadcastss 0x2fcb6(%rip),%ymm12 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,54,242,2,0 // vbroadcastss 0x2f236(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,13,172,252,2,0 // vbroadcastss 0x2fcac(%rip),%ymm9 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,13,44,242,2,0 // vbroadcastss 0x2f22c(%rip),%ymm9 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,180,92,255 // vsubps %ymm7,%ymm9,%ymm7
- .byte 196,226,125,24,13,163,252,2,0 // vbroadcastss 0x2fca3(%rip),%ymm1 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,35,242,2,0 // vbroadcastss 0x2f223(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm6
- .byte 196,226,125,24,29,139,252,2,0 // vbroadcastss 0x2fc8b(%rip),%ymm3 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,11,242,2,0 // vbroadcastss 0x2f20b(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,194,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm0
@@ -10866,27 +10756,27 @@ _sk_gamma_dst_hsw:
.byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
.byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,13,251,2,0 // vbroadcastss 0x2fb0d(%rip),%ymm11 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,5,8,251,2,0 // vbroadcastss 0x2fb08(%rip),%ymm0 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,141,240,2,0 // vbroadcastss 0x2f08d(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,136,240,2,0 // vbroadcastss 0x2f088(%rip),%ymm0 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,92,84,224 // vandps %ymm0,%ymm4,%ymm12
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,220 // vmovaps %ymm4,%ymm3
- .byte 196,226,125,24,5,83,250,2,0 // vbroadcastss 0x2fa53(%rip),%ymm0 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,211,239,2,0 // vbroadcastss 0x2efd3(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,4,36 // vmovups %ymm0,(%rsp)
.byte 197,28,86,224 // vorps %ymm0,%ymm12,%ymm12
- .byte 196,98,125,24,45,229,250,2,0 // vbroadcastss 0x2fae5(%rip),%ymm13 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,101,240,2,0 // vbroadcastss 0x2f065(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,252,40,197 // vmovaps %ymm5,%ymm0
.byte 197,124,91,240 // vcvtdq2ps %ymm0,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,124,36,128 // vcvtdq2ps -0x80(%rsp),%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,195,250,2,0 // vbroadcastss 0x2fac3(%rip),%ymm5 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,67,240,2,0 // vbroadcastss 0x2f043(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,185,250,2,0 // vbroadcastss 0x2fab9(%rip),%ymm1 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,57,240,2,0 // vbroadcastss 0x2f039(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,13,170,250,2,0 // vbroadcastss 0x2faaa(%rip),%ymm9 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,13,42,240,2,0 // vbroadcastss 0x2f02a(%rip),%ymm9 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,52,94,228 // vdivps %ymm12,%ymm9,%ymm12
.byte 197,124,17,76,36,160 // vmovups %ymm9,-0x60(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10895,18 +10785,18 @@ _sk_gamma_dst_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,127,250,2,0 // vbroadcastss 0x2fa7f(%rip),%ymm11 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,255,239,2,0 // vbroadcastss 0x2efff(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,117,250,2,0 // vbroadcastss 0x2fa75(%rip),%ymm12 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,245,239,2,0 // vbroadcastss 0x2eff5(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,5,107,250,2,0 // vbroadcastss 0x2fa6b(%rip),%ymm8 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,5,235,239,2,0 // vbroadcastss 0x2efeb(%rip),%ymm8 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,188,92,255 // vsubps %ymm7,%ymm8,%ymm7
- .byte 196,226,125,24,13,98,250,2,0 // vbroadcastss 0x2fa62(%rip),%ymm1 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,226,239,2,0 // vbroadcastss 0x2efe2(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,100,194,242,0 // vcmpeqps %ymm10,%ymm3,%ymm6
- .byte 196,226,125,24,29,74,250,2,0 // vbroadcastss 0x2fa4a(%rip),%ymm3 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,202,239,2,0 // vbroadcastss 0x2efca(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,226,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm4
@@ -10967,26 +10857,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,53,249,2,0 // vbroadcastss 0x2f935(%rip),%ymm8 # 3af64 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,148,248,2,0 // vbroadcastss 0x2f894(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,39,249,2,0 // vbroadcastss 0x2f927(%rip),%ymm10 # 3af68 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,181,238,2,0 // vbroadcastss 0x2eeb5(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,20,238,2,0 // vbroadcastss 0x2ee14(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,167,238,2,0 // vbroadcastss 0x2eea7(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,24,249,2,0 // vbroadcastss 0x2f918(%rip),%ymm9 # 3af6c <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,13,152,238,2,0 // vbroadcastss 0x2ee98(%rip),%ymm9 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,14,249,2,0 // vbroadcastss 0x2f90e(%rip),%ymm0 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,226,125,24,5,142,238,2,0 // vbroadcastss 0x2ee8e(%rip),%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,5,249,2,0 // vbroadcastss 0x2f905(%rip),%ymm8 # 3af74 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,133,238,2,0 // vbroadcastss 0x2ee85(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,251,248,2,0 // vbroadcastss 0x2f8fb(%rip),%ymm9 # 3af78 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,13,123,238,2,0 // vbroadcastss 0x2ee7b(%rip),%ymm9 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,232,248,2,0 // vbroadcastss 0x2f8e8(%rip),%ymm2 # 3af7c <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,226,125,24,21,104,238,2,0 // vbroadcastss 0x2ee68(%rip),%ymm2 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,222,248,2,0 // vbroadcastss 0x2f8de(%rip),%ymm11 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,94,238,2,0 // vbroadcastss 0x2ee5e(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,212,248,2,0 // vbroadcastss 0x2f8d4(%rip),%ymm12 # 3af84 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,84,238,2,0 // vbroadcastss 0x2ee54(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -11001,9 +10891,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,137,248,2,0 // vbroadcastss 0x2f889(%rip),%ymm0 # 3af88 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,9,238,2,0 // vbroadcastss 0x2ee09(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,128,248,2,0 // vbroadcastss 0x2f880(%rip),%ymm8 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,0,238,2,0 // vbroadcastss 0x2ee00(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11019,12 +10909,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b761 <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne b559 <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,245,0,3,0 // vpand 0x300f5(%rip),%xmm0,%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,249,219,5,189,245,2,0 // vpand 0x2f5bd(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,203,247,2,0 // vbroadcastss 0x2f7cb(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,75,237,2,0 // vbroadcastss 0x2ed4b(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -11036,15 +10926,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja b733 <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja b52b <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b7f8 <_sk_load_a8_hsw+0xe3>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b5f0 <_sk_load_a8_hsw+0xe3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp b733 <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp b52b <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -11052,7 +10942,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq b733 <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -11063,7 +10953,7 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq b733 <_sk_load_a8_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -11072,7 +10962,7 @@ _sk_load_a8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b808 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd0c18>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b600 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1698>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11094,12 +10984,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b860 <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne b658 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,246,255,2,0 // vpand 0x2fff6(%rip),%xmm4,%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,217,219,37,190,244,2,0 // vpand 0x2f4be(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,204,246,2,0 // vbroadcastss 0x2f6cc(%rip),%ymm5 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,76,236,2,0 // vbroadcastss 0x2ec4c(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -11111,15 +11001,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja b832 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b8f8 <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b6f0 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp b832 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -11127,7 +11017,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq b832 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -11138,7 +11028,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq b832 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -11147,7 +11037,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b908 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0d18>
+ .byte 232,255,255,255,221 // callq ffffffffde00b700 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1798>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11214,7 +11104,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,19,245,2,0 // vbroadcastss 0x2f513(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,147,234,2,0 // vbroadcastss 0x2ea93(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -11238,16 +11128,16 @@ _sk_store_a8_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,91,244,2,0 // vbroadcastss 0x2f45b(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,219,233,2,0 // vbroadcastss 0x2e9db(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,121,244,2,0 // vbroadcastss 0x2f479(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,249,233,2,0 // vbroadcastss 0x2e9f9(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne ba7b <_sk_store_a8_hsw+0x5b>
+ .byte 117,10 // jne b873 <_sk_store_a8_hsw+0x5b>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11255,25 +11145,25 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja ba77 <_sk_store_a8_hsw+0x57>
+ .byte 119,236 // ja b86f <_sk_store_a8_hsw+0x57>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # baf0 <_sk_store_a8_hsw+0xd0>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # b8e8 <_sk_store_a8_hsw+0xd0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp ba77 <_sk_store_a8_hsw+0x57>
+ .byte 235,202 // jmp b86f <_sk_store_a8_hsw+0x57>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,130,253,2,0 // vpshufb 0x2fd82(%rip),%xmm8,%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 196,98,57,0,5,74,242,2,0 // vpshufb 0x2f24a(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp ba77 <_sk_store_a8_hsw+0x57>
+ .byte 235,176 // jmp b86f <_sk_store_a8_hsw+0x57>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,104,253,2,0 // vpshufb 0x2fd68(%rip),%xmm8,%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xc60>
+ .byte 196,98,57,0,5,48,242,2,0 // vpshufb 0x2f230(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp ba77 <_sk_store_a8_hsw+0x57>
+ .byte 235,135 // jmp b86f <_sk_store_a8_hsw+0x57>
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
.byte 255,197 // inc %ebp
@@ -11305,15 +11195,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne bb5d <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne b955 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,254,252,2,0 // vpand 0x2fcfe(%rip),%xmm0,%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,249,219,5,198,241,2,0 // vpand 0x2f1c6(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,212,243,2,0 // vbroadcastss 0x2f3d4(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,84,233,2,0 // vbroadcastss 0x2e954(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,77,243,2,0 // vbroadcastss 0x2f34d(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,205,232,2,0 // vbroadcastss 0x2e8cd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -11322,15 +11212,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja bb2a <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja b922 <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # bbf4 <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b9ec <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp bb2a <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp b922 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -11338,7 +11228,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq bb2a <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -11349,7 +11239,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq bb2a <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -11358,7 +11248,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00bc04 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1014>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b9fc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1a94>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11380,15 +11270,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne bc61 <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne ba59 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,250,251,2,0 // vpand 0x2fbfa(%rip),%xmm4,%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,217,219,37,194,240,2,0 // vpand 0x2f0c2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,208,242,2,0 // vbroadcastss 0x2f2d0(%rip),%ymm5 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,80,232,2,0 // vbroadcastss 0x2e850(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,73,242,2,0 // vbroadcastss 0x2f249(%rip),%ymm7 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,201,231,2,0 // vbroadcastss 0x2e7c9(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -11397,15 +11287,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja bc2e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # bcf8 <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # baf0 <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp bc2e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -11413,7 +11303,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq bc2e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -11424,7 +11314,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq bc2e <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -11433,7 +11323,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00bd08 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1118>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1b98>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11500,10 +11390,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,19,241,2,0 // vbroadcastss 0x2f113(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,147,230,2,0 // vbroadcastss 0x2e693(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,140,240,2,0 // vbroadcastss 0x2f08c(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,12,230,2,0 // vbroadcastss 0x2e60c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -11524,53 +11414,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne beb2 <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne bcaa <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,200,240,2,0 // vpbroadcastd 0x2f0c8(%rip),%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,72,230,2,0 // vpbroadcastd 0x2e648(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,187,240,2,0 // vbroadcastss 0x2f0bb(%rip),%ymm1 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,59,230,2,0 // vbroadcastss 0x2e63b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,178,240,2,0 // vpbroadcastd 0x2f0b2(%rip),%ymm1 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,50,230,2,0 // vpbroadcastd 0x2e632(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,165,240,2,0 // vbroadcastss 0x2f0a5(%rip),%ymm3 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,37,230,2,0 // vbroadcastss 0x2e625(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,156,240,2,0 // vpbroadcastd 0x2f09c(%rip),%ymm3 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,28,230,2,0 // vpbroadcastd 0x2e61c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,143,240,2,0 // vbroadcastss 0x2f08f(%rip),%ymm3 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,15,230,2,0 // vbroadcastss 0x2e60f(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,240,239,2,0 // vbroadcastss 0x2eff0(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,112,229,2,0 // vbroadcastss 0x2e570(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja be46 <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja bc3e <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # bf34 <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # bd2c <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq be46 <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq be46 <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq be46 <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -11603,53 +11493,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne bfdd <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne bdd5 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,157,239,2,0 // vpbroadcastd 0x2ef9d(%rip),%ymm4 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,37,29,229,2,0 // vpbroadcastd 0x2e51d(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,144,239,2,0 // vbroadcastss 0x2ef90(%rip),%ymm5 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,16,229,2,0 // vbroadcastss 0x2e510(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,135,239,2,0 // vpbroadcastd 0x2ef87(%rip),%ymm5 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,45,7,229,2,0 // vpbroadcastd 0x2e507(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,122,239,2,0 // vbroadcastss 0x2ef7a(%rip),%ymm7 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,250,228,2,0 // vbroadcastss 0x2e4fa(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,113,239,2,0 // vpbroadcastd 0x2ef71(%rip),%ymm7 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,61,241,228,2,0 // vpbroadcastd 0x2e4f1(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,100,239,2,0 // vbroadcastss 0x2ef64(%rip),%ymm7 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,228,228,2,0 // vbroadcastss 0x2e4e4(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,197,238,2,0 // vbroadcastss 0x2eec5(%rip),%ymm7 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,69,228,2,0 // vbroadcastss 0x2e445(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja bf71 <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja bd69 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c060 <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # be58 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq bf71 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq bf71 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq bf71 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11728,23 +11618,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,184,237,2,0 // vpbroadcastd 0x2edb8(%rip),%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,56,227,2,0 // vpbroadcastd 0x2e338(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,171,237,2,0 // vbroadcastss 0x2edab(%rip),%ymm1 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,43,227,2,0 // vbroadcastss 0x2e32b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,162,237,2,0 // vpbroadcastd 0x2eda2(%rip),%ymm1 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,34,227,2,0 // vpbroadcastd 0x2e322(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,149,237,2,0 // vbroadcastss 0x2ed95(%rip),%ymm3 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,21,227,2,0 // vbroadcastss 0x2e315(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,140,237,2,0 // vpbroadcastd 0x2ed8c(%rip),%ymm3 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,12,227,2,0 // vpbroadcastd 0x2e30c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,127,237,2,0 // vbroadcastss 0x2ed7f(%rip),%ymm3 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,255,226,2,0 // vbroadcastss 0x2e2ff(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,224,236,2,0 // vbroadcastss 0x2ece0(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,96,226,2,0 // vbroadcastss 0x2e260(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -11764,15 +11654,15 @@ _sk_store_565_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,175,236,2,0 // vbroadcastss 0x2ecaf(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,47,226,2,0 // vbroadcastss 0x2e22f(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,145,237,2,0 // vbroadcastss 0x2ed91(%rip),%ymm11 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,17,227,2,0 // vbroadcastss 0x2e311(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,115,237,2,0 // vbroadcastss 0x2ed73(%rip),%ymm13 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,45,243,226,2,0 // vbroadcastss 0x2e2f3(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
@@ -11785,7 +11675,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c268 <_sk_store_565_hsw+0x9f>
+ .byte 117,10 // jne c060 <_sk_store_565_hsw+0x9f>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11793,22 +11683,22 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c264 <_sk_store_565_hsw+0x9b>
+ .byte 119,236 // ja c05c <_sk_store_565_hsw+0x9b>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # c2c8 <_sk_store_565_hsw+0xff>
+ .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # c0c0 <_sk_store_565_hsw+0xff>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp c264 <_sk_store_565_hsw+0x9b>
+ .byte 235,207 // jmp c05c <_sk_store_565_hsw+0x9b>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp c264 <_sk_store_565_hsw+0x9b>
+ .byte 235,191 // jmp c05c <_sk_store_565_hsw+0x9b>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp c264 <_sk_store_565_hsw+0x9b>
+ .byte 235,159 // jmp c05c <_sk_store_565_hsw+0x9b>
.byte 15,31,0 // nopl (%rax)
.byte 196 // (bad)
.byte 255 // (bad)
@@ -11846,28 +11736,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c38d <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne c185 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,129,236,2,0 // vpbroadcastd 0x2ec81(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,1,226,2,0 // vpbroadcastd 0x2e201(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,116,236,2,0 // vbroadcastss 0x2ec74(%rip),%ymm1 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,244,225,2,0 // vbroadcastss 0x2e1f4(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,107,236,2,0 // vpbroadcastd 0x2ec6b(%rip),%ymm1 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,235,225,2,0 // vpbroadcastd 0x2e1eb(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,94,236,2,0 // vbroadcastss 0x2ec5e(%rip),%ymm2 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,222,225,2,0 // vbroadcastss 0x2e1de(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,85,236,2,0 // vpbroadcastd 0x2ec55(%rip),%ymm2 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,213,225,2,0 // vpbroadcastd 0x2e1d5(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,72,236,2,0 // vbroadcastss 0x2ec48(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,200,225,2,0 // vbroadcastss 0x2e1c8(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,62,236,2,0 // vpbroadcastd 0x2ec3e(%rip),%ymm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,190,225,2,0 // vpbroadcastd 0x2e1be(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,48,236,2,0 // vbroadcastss 0x2ec30(%rip),%ymm8 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,176,225,2,0 // vbroadcastss 0x2e1b0(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11876,27 +11766,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja c309 <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja c101 <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c414 <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c20c <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq c309 <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq c309 <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq c309 <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11932,28 +11822,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c4d9 <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne c2d1 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,53,235,2,0 // vpbroadcastd 0x2eb35(%rip),%ymm4 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,37,181,224,2,0 // vpbroadcastd 0x2e0b5(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,40,235,2,0 // vbroadcastss 0x2eb28(%rip),%ymm5 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,168,224,2,0 // vbroadcastss 0x2e0a8(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,31,235,2,0 // vpbroadcastd 0x2eb1f(%rip),%ymm5 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,45,159,224,2,0 // vpbroadcastd 0x2e09f(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,18,235,2,0 // vbroadcastss 0x2eb12(%rip),%ymm6 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,146,224,2,0 // vbroadcastss 0x2e092(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,9,235,2,0 // vpbroadcastd 0x2eb09(%rip),%ymm6 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,53,137,224,2,0 // vpbroadcastd 0x2e089(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,252,234,2,0 // vbroadcastss 0x2eafc(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,124,224,2,0 // vbroadcastss 0x2e07c(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,242,234,2,0 // vpbroadcastd 0x2eaf2(%rip),%ymm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,114,224,2,0 // vpbroadcastd 0x2e072(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,228,234,2,0 // vbroadcastss 0x2eae4(%rip),%ymm8 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,100,224,2,0 // vbroadcastss 0x2e064(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11962,27 +11852,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja c455 <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja c24d <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c560 <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c358 <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq c455 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq c455 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq c455 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -12061,25 +11951,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,52,233,2,0 // vpbroadcastd 0x2e934(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,180,222,2,0 // vpbroadcastd 0x2deb4(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,39,233,2,0 // vbroadcastss 0x2e927(%rip),%ymm1 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,167,222,2,0 // vbroadcastss 0x2dea7(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,30,233,2,0 // vpbroadcastd 0x2e91e(%rip),%ymm1 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,158,222,2,0 // vpbroadcastd 0x2de9e(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,17,233,2,0 // vbroadcastss 0x2e911(%rip),%ymm2 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,145,222,2,0 // vbroadcastss 0x2de91(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,8,233,2,0 // vpbroadcastd 0x2e908(%rip),%ymm2 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,136,222,2,0 // vpbroadcastd 0x2de88(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,251,232,2,0 // vbroadcastss 0x2e8fb(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,123,222,2,0 // vbroadcastss 0x2de7b(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,241,232,2,0 // vpbroadcastd 0x2e8f1(%rip),%ymm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,113,222,2,0 // vpbroadcastd 0x2de71(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,227,232,2,0 // vbroadcastss 0x2e8e3(%rip),%ymm8 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,99,222,2,0 // vbroadcastss 0x2de63(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -12101,9 +11991,9 @@ _sk_store_4444_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,151,231,2,0 // vbroadcastss 0x2e797(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,23,221,2,0 // vbroadcastss 0x2dd17(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,161,232,2,0 // vbroadcastss 0x2e8a1(%rip),%ymm11 # 3afb8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,33,222,2,0 // vbroadcastss 0x2de21(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -12127,7 +12017,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c795 <_sk_store_4444_hsw+0xb4>
+ .byte 117,10 // jne c58d <_sk_store_4444_hsw+0xb4>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12135,22 +12025,22 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c791 <_sk_store_4444_hsw+0xb0>
+ .byte 119,236 // ja c589 <_sk_store_4444_hsw+0xb0>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # c7f4 <_sk_store_4444_hsw+0x113>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # c5ec <_sk_store_4444_hsw+0x113>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp c791 <_sk_store_4444_hsw+0xb0>
+ .byte 235,207 // jmp c589 <_sk_store_4444_hsw+0xb0>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp c791 <_sk_store_4444_hsw+0xb0>
+ .byte 235,191 // jmp c589 <_sk_store_4444_hsw+0xb0>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp c791 <_sk_store_4444_hsw+0xb0>
+ .byte 235,159 // jmp c589 <_sk_store_4444_hsw+0xb0>
.byte 102,144 // xchg %ax,%ax
.byte 197,255,255 // (bad)
.byte 255,214 // callq *%rsi
@@ -12186,16 +12076,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c882 <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne c67a <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,102,233,2,0 // vpand 0x2e966(%rip),%ymm3,%ymm0 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x5b0>
+ .byte 197,229,219,5,238,222,2,0 // vpand 0x2deee(%rip),%ymm3,%ymm0 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0x5b8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,209,230,2,0 // vbroadcastss 0x2e6d1(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,81,220,2,0 // vbroadcastss 0x2dc51(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,107,233,2,0 // vpshufb 0x2e96b(%rip),%ymm3,%ymm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x5d0>
+ .byte 196,226,101,0,13,243,222,2,0 // vpshufb 0x2def3(%rip),%ymm3,%ymm1 # 3a540 <_sk_srcover_bgra_8888_sse2_lowp+0x5d8>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,121,233,2,0 // vpshufb 0x2e979(%rip),%ymm3,%ymm2 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x5f0>
+ .byte 196,226,101,0,21,1,223,2,0 // vpshufb 0x2df01(%rip),%ymm3,%ymm2 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x5f8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -12208,21 +12098,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c832 <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja c62a <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c928 <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c720 <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp c832 <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp c62a <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq c832 <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12235,7 +12125,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq c832 <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12269,16 +12159,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c9b6 <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne c7ae <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,146,232,2,0 // vpand 0x2e892(%rip),%ymm7,%ymm4 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x610>
+ .byte 197,197,219,37,26,222,2,0 // vpand 0x2de1a(%rip),%ymm7,%ymm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x618>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,157,229,2,0 // vbroadcastss 0x2e59d(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,29,219,2,0 // vbroadcastss 0x2db1d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,151,232,2,0 // vpshufb 0x2e897(%rip),%ymm7,%ymm5 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x630>
+ .byte 196,226,69,0,45,31,222,2,0 // vpshufb 0x2de1f(%rip),%ymm7,%ymm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x638>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,165,232,2,0 // vpshufb 0x2e8a5(%rip),%ymm7,%ymm6 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x650>
+ .byte 196,226,69,0,53,45,222,2,0 // vpshufb 0x2de2d(%rip),%ymm7,%ymm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x658>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12291,21 +12181,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c966 <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja c75e <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # ca5c <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c854 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp c966 <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp c75e <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq c966 <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12318,7 +12208,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq c966 <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12362,14 +12252,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,145,231,2,0 // vpand 0x2e791(%rip),%ymm8,%ymm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x670>
+ .byte 197,189,219,5,25,221,2,0 // vpand 0x2dd19(%rip),%ymm8,%ymm0 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x678>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,60,228,2,0 // vbroadcastss 0x2e43c(%rip),%ymm3 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,188,217,2,0 // vbroadcastss 0x2d9bc(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,151,231,2,0 // vpshufb 0x2e797(%rip),%ymm8,%ymm1 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x690>
+ .byte 196,226,61,0,13,31,221,2,0 // vpshufb 0x2dd1f(%rip),%ymm8,%ymm1 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x698>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,166,231,2,0 // vpshufb 0x2e7a6(%rip),%ymm8,%ymm2 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x6b0>
+ .byte 196,226,61,0,21,46,221,2,0 // vpshufb 0x2dd2e(%rip),%ymm8,%ymm2 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x6b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12391,9 +12281,9 @@ _sk_store_8888_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,98,227,2,0 // vbroadcastss 0x2e362(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,226,216,2,0 // vbroadcastss 0x2d8e2(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,128,227,2,0 // vbroadcastss 0x2e380(%rip),%ymm11 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,0,217,2,0 // vbroadcastss 0x2d900(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -12415,7 +12305,7 @@ _sk_store_8888_hsw:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne cbbf <_sk_store_8888_hsw+0xaa>
+ .byte 117,10 // jne c9b7 <_sk_store_8888_hsw+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12423,17 +12313,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja cbbb <_sk_store_8888_hsw+0xa6>
+ .byte 119,236 // ja c9b3 <_sk_store_8888_hsw+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # cc2c <_sk_store_8888_hsw+0x117>
+ .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ca24 <_sk_store_8888_hsw+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp cbbb <_sk_store_8888_hsw+0xa6>
+ .byte 235,208 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp cbbb <_sk_store_8888_hsw+0xa6>
+ .byte 235,192 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12441,7 +12331,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp cbbb <_sk_store_8888_hsw+0xa6>
+ .byte 235,143 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
.byte 183,255 // mov $0xff,%bh
.byte 255 // (bad)
.byte 255,199 // inc %edi
@@ -12452,7 +12342,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp cc3d <_sk_store_8888_hsw+0x128>
+ .byte 235,255 // jmp ca35 <_sk_store_8888_hsw+0x128>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 221,255 // (bad)
@@ -12474,16 +12364,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne ccba <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne cab2 <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,78,230,2,0 // vpand 0x2e64e(%rip),%ymm3,%ymm0 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x6d0>
+ .byte 197,229,219,5,214,219,2,0 // vpand 0x2dbd6(%rip),%ymm3,%ymm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x6d8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,153,226,2,0 // vbroadcastss 0x2e299(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,25,216,2,0 // vbroadcastss 0x2d819(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,83,230,2,0 // vpshufb 0x2e653(%rip),%ymm3,%ymm0 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x6f0>
+ .byte 196,226,101,0,5,219,219,2,0 // vpshufb 0x2dbdb(%rip),%ymm3,%ymm0 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x6f8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,97,230,2,0 // vpshufb 0x2e661(%rip),%ymm3,%ymm0 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x710>
+ .byte 196,226,101,0,5,233,219,2,0 // vpshufb 0x2dbe9(%rip),%ymm3,%ymm0 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x718>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -12496,21 +12386,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja cc6a <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja ca62 <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cd60 <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cb58 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp cc6a <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp ca62 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq cc6a <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12523,7 +12413,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq cc6a <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12557,16 +12447,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne cdee <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne cbe6 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,122,229,2,0 // vpand 0x2e57a(%rip),%ymm7,%ymm4 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x730>
+ .byte 197,197,219,37,2,219,2,0 // vpand 0x2db02(%rip),%ymm7,%ymm4 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x738>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,101,225,2,0 // vbroadcastss 0x2e165(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,229,214,2,0 // vbroadcastss 0x2d6e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,127,229,2,0 // vpshufb 0x2e57f(%rip),%ymm7,%ymm4 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x750>
+ .byte 196,226,69,0,37,7,219,2,0 // vpshufb 0x2db07(%rip),%ymm7,%ymm4 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x758>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,141,229,2,0 // vpshufb 0x2e58d(%rip),%ymm7,%ymm4 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x770>
+ .byte 196,226,69,0,37,21,219,2,0 // vpshufb 0x2db15(%rip),%ymm7,%ymm4 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x778>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12579,21 +12469,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja cd9e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # ce94 <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cc8c <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp cd9e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq cd9e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12606,7 +12496,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq cd9e <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12650,14 +12540,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,121,228,2,0 // vpand 0x2e479(%rip),%ymm8,%ymm0 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x790>
+ .byte 197,189,219,5,1,218,2,0 // vpand 0x2da01(%rip),%ymm8,%ymm0 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x798>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,4,224,2,0 // vbroadcastss 0x2e004(%rip),%ymm3 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,132,213,2,0 // vbroadcastss 0x2d584(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,127,228,2,0 // vpshufb 0x2e47f(%rip),%ymm8,%ymm0 # 3b3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x7b0>
+ .byte 196,226,61,0,5,7,218,2,0 // vpshufb 0x2da07(%rip),%ymm8,%ymm0 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x7b8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,142,228,2,0 // vpshufb 0x2e48e(%rip),%ymm8,%ymm0 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x7d0>
+ .byte 196,226,61,0,5,22,218,2,0 // vpshufb 0x2da16(%rip),%ymm8,%ymm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x7d8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12679,9 +12569,9 @@ _sk_store_bgra_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,42,223,2,0 // vbroadcastss 0x2df2a(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,170,212,2,0 // vbroadcastss 0x2d4aa(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,72,223,2,0 // vbroadcastss 0x2df48(%rip),%ymm11 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,200,212,2,0 // vbroadcastss 0x2d4c8(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -12703,7 +12593,7 @@ _sk_store_bgra_hsw:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne cff7 <_sk_store_bgra_hsw+0xaa>
+ .byte 117,10 // jne cdef <_sk_store_bgra_hsw+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12711,17 +12601,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja cff3 <_sk_store_bgra_hsw+0xa6>
+ .byte 119,236 // ja cdeb <_sk_store_bgra_hsw+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # d064 <_sk_store_bgra_hsw+0x117>
+ .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ce5c <_sk_store_bgra_hsw+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp cff3 <_sk_store_bgra_hsw+0xa6>
+ .byte 235,208 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp cff3 <_sk_store_bgra_hsw+0xa6>
+ .byte 235,192 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12729,7 +12619,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp cff3 <_sk_store_bgra_hsw+0xa6>
+ .byte 235,143 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
.byte 183,255 // mov $0xff,%bh
.byte 255 // (bad)
.byte 255,199 // inc %edi
@@ -12740,7 +12630,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp d075 <_sk_store_bgra_hsw+0x128>
+ .byte 235,255 // jmp ce6d <_sk_store_bgra_hsw+0x128>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 221,255 // (bad)
@@ -12762,7 +12652,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne d101 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne cef9 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -12788,29 +12678,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d167 <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je cf5f <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d167 <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb cf5f <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d174 <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je cf6c <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d174 <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb cf6c <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je d0b7 <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je ceaf <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb d0b7 <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb ceaf <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq d0b7 <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq d0b7 <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq d0b7 <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -12824,7 +12714,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne d1fe <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne cff6 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -12850,29 +12740,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d264 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je d05c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d264 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb d05c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d271 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je d069 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d271 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb d069 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je d1b4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je cfac <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb d1b4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb cfac <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq d1b4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq d1b4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq d1b4 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -12945,7 +12835,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d3ae <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne d1a6 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -12954,22 +12844,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d3aa <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d3aa <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je d3aa <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d3aa <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je d3aa <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d3aa <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp d3aa <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp d1a2 <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -12984,7 +12874,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne d4ef <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne d2e7 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -13003,7 +12893,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,176,218,2,0 // vbroadcastss 0x2dab0(%rip),%ymm10 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,48,208,2,0 // vbroadcastss 0x2d030(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -13031,29 +12921,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d555 <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je d34d <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d555 <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb d34d <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d562 <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je d35a <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d562 <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb d35a <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je d43e <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je d236 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb d43e <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb d236 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq d43e <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq d43e <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq d43e <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -13070,7 +12960,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne d663 <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne d45b <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -13095,7 +12985,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,31,217,2,0 // vbroadcastss 0x2d91f(%rip),%ymm9 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,159,206,2,0 // vbroadcastss 0x2ce9f(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -13111,69 +13001,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,63,216,2,0 // vbroadcastss 0x2d83f(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,191,205,2,0 // vbroadcastss 0x2cdbf(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne d69b <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne d493 <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq d5cb <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb d6e5 <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb d4dd <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne d6ff <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne d4f7 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq d5cb <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq d5cb <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb d740 <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb d538 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne d751 <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne d549 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq d5cb <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq d5cb <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb d784 <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb d57c <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq d5cb <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq d5cb <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -13189,9 +13079,9 @@ _sk_store_u16_be_hsw:
.byte 73,99,193 // movslq %r9d,%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,227,214,2,0 // vbroadcastss 0x2d6e3(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,99,204,2,0 // vbroadcastss 0x2cc63(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,241,215,2,0 // vbroadcastss 0x2d7f1(%rip),%ymm11 # 3afbc <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,113,205,2,0 // vbroadcastss 0x2cd71(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
@@ -13235,7 +13125,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
.byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d8ca <_sk_store_u16_be_hsw+0x13d>
+ .byte 117,31 // jne d6c2 <_sk_store_u16_be_hsw+0x13d>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -13244,22 +13134,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d8c6 <_sk_store_u16_be_hsw+0x139>
+ .byte 116,240 // je d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d8c6 <_sk_store_u16_be_hsw+0x139>
+ .byte 114,227 // jb d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je d8c6 <_sk_store_u16_be_hsw+0x139>
+ .byte 116,218 // je d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d8c6 <_sk_store_u16_be_hsw+0x139>
+ .byte 114,205 // jb d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je d8c6 <_sk_store_u16_be_hsw+0x139>
+ .byte 116,196 // je d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d8c6 <_sk_store_u16_be_hsw+0x139>
+ .byte 114,183 // jb d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp d8c6 <_sk_store_u16_be_hsw+0x139>
+ .byte 235,174 // jmp d6be <_sk_store_u16_be_hsw+0x139>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -13268,7 +13158,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja da89 <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja d881 <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -13281,7 +13171,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # da98 <_sk_load_f32_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d890 <_sk_load_f32_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -13344,7 +13234,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp da63 <_sk_load_f32_hsw+0x14b>
+ .byte 235,203 // jmp d85b <_sk_load_f32_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13370,7 +13260,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja dc29 <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja da21 <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -13383,7 +13273,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # dc38 <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # da30 <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -13446,7 +13336,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp dc03 <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp d9fb <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13486,7 +13376,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne dcd7 <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne dacf <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -13499,22 +13389,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je dcd3 <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je dacb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb dcd3 <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb dacb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je dcd3 <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je dacb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb dcd3 <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb dacb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je dcd3 <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je dacb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb dcd3 <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb dacb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp dcd3 <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp dacb <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -13553,7 +13443,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,13,209,2,0 // vmulss 0x2d10d(%rip),%xmm9,%xmm0 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,141,198,2,0 // vmulss 0x2c68d(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -13576,7 +13466,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,188,208,2,0 // vmulss 0x2d0bc(%rip),%xmm9,%xmm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,60,198,2,0 // vmulss 0x2c63c(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -13594,7 +13484,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,132,208,2,0 // vbroadcastss 0x2d084(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,198,2,0 // vbroadcastss 0x2c604(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13607,7 +13497,7 @@ _sk_repeat_x_1_hsw:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,94,208,2,0 // vbroadcastss 0x2d05e(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,222,197,2,0 // vbroadcastss 0x2c5de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13616,9 +13506,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,100,208,2,0 // vbroadcastss 0x2d064(%rip),%ymm8 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,228,197,2,0 // vbroadcastss 0x2c5e4(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,58,208,2,0 // vbroadcastss 0x2d03a(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,186,197,2,0 // vbroadcastss 0x2c5ba(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -13628,7 +13518,7 @@ _sk_mirror_x_1_hsw:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,10,208,2,0 // vbroadcastss 0x2d00a(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,138,197,2,0 // vbroadcastss 0x2c58a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13637,11 +13527,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,28,209,2,0 // vbroadcastss 0x2d11c(%rip),%ymm3 # 3afc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,98,125,24,5,15,209,2,0 // vbroadcastss 0x2d10f(%rip),%ymm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,156,198,2,0 // vbroadcastss 0x2c69c(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,98,125,24,5,143,198,2,0 // vbroadcastss 0x2c68f(%rip),%ymm8 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,4,209,2,0 // vbroadcastss 0x2d104(%rip),%ymm3 # 3afc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,29,132,198,2,0 // vbroadcastss 0x2c684(%rip),%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -13840,9 +13730,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js e1bc <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js dfb4 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp e1d2 <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp dfca <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -13853,7 +13743,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja e22e <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja e026 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -13869,7 +13759,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq e2c1 <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq e0b9 <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -13916,11 +13806,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe e3c8 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe e1c0 <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,161,203,2,0 // vbroadcastss 0x2cba1(%rip),%ymm2 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,33,193,2,0 // vbroadcastss 0x2c121(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -13928,10 +13818,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne e308 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne e100 <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe e3d1 <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe e1c9 <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -13963,7 +13853,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp e415 <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp e20d <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -14023,24 +13913,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,28,203,2,0 // vbroadcastss 0x2cb1c(%rip),%ymm13 # 3afcc <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,23,203,2,0 // vbroadcastss 0x2cb17(%rip),%ymm14 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,45,156,192,2,0 // vbroadcastss 0x2c09c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,151,192,2,0 // vbroadcastss 0x2c097(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,13,203,2,0 // vbroadcastss 0x2cb0d(%rip),%ymm13 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,45,141,192,2,0 // vbroadcastss 0x2c08d(%rip),%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,3,203,2,0 // vbroadcastss 0x2cb03(%rip),%ymm14 # 3afd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,131,192,2,0 // vbroadcastss 0x2c083(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,238,202,2,0 // vbroadcastss 0x2caee(%rip),%ymm10 # 3afdc <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,110,192,2,0 // vbroadcastss 0x2c06e(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,148,201,2,0 // vbroadcastss 0x2c994(%rip),%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,20,191,2,0 // vbroadcastss 0x2bf14(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,126,201,2,0 // vbroadcastss 0x2c97e(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,254,190,2,0 // vbroadcastss 0x2befe(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -14068,21 +13958,21 @@ _sk_xy_to_2pt_conical_quadratic_first_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,110,202,2,0 // vbroadcastss 0x2ca6e(%rip),%ymm11 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,238,191,2,0 // vbroadcastss 0x2bfee(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,77,202,2,0 // vbroadcastss 0x2ca4d(%rip),%ymm9 # 3afe4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,205,191,2,0 // vbroadcastss 0x2bfcd(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,223,200,2,0 // vbroadcastss 0x2c8df(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,95,190,2,0 // vbroadcastss 0x2be5f(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14098,23 +13988,23 @@ _sk_xy_to_2pt_conical_quadratic_second_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,241,201,2,0 // vbroadcastss 0x2c9f1(%rip),%ymm11 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,113,191,2,0 // vbroadcastss 0x2bf71(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,208,201,2,0 // vbroadcastss 0x2c9d0(%rip),%ymm9 # 3afe4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,80,191,2,0 // vbroadcastss 0x2bf50(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,179,201,2,0 // vbroadcastss 0x2c9b3(%rip),%ymm9 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,51,191,2,0 // vbroadcastss 0x2bf33(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,85,200,2,0 // vbroadcastss 0x2c855(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,213,189,2,0 // vbroadcastss 0x2bdd5(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14129,14 +14019,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,109,201,2,0 // vbroadcastss 0x2c96d(%rip),%ymm10 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,237,190,2,0 // vbroadcastss 0x2beed(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,80,201,2,0 // vbroadcastss 0x2c950(%rip),%ymm8 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,208,190,2,0 // vbroadcastss 0x2bed0(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14179,7 +14069,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,143,199,2,0 // vbroadcastss 0x2c78f(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,15,189,2,0 // vbroadcastss 0x2bd0f(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -14213,9 +14103,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,105,200,2,0 // vbroadcastss 0x2c869(%rip),%ymm0 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,233,189,2,0 // vbroadcastss 0x2bde9(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,16,199,2,0 // vbroadcastss 0x2c710(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,144,188,2,0 // vbroadcastss 0x2bc90(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14226,7 +14116,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,237,198,2,0 // vbroadcastss 0x2c6ed(%rip),%ymm0 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,109,188,2,0 // vbroadcastss 0x2bc6d(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14238,9 +14128,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,26,200,2,0 // vbroadcastss 0x2c81a(%rip),%ymm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,154,189,2,0 // vbroadcastss 0x2bd9a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,192,198,2,0 // vbroadcastss 0x2c6c0(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,64,188,2,0 // vbroadcastss 0x2bc40(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14251,7 +14141,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,157,198,2,0 // vbroadcastss 0x2c69d(%rip),%ymm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,29,188,2,0 // vbroadcastss 0x2bc1d(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14263,13 +14153,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,205,199,2,0 // vbroadcastss 0x2c7cd(%rip),%ymm0 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,77,189,2,0 // vbroadcastss 0x2bd4d(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,112,198,2,0 // vbroadcastss 0x2c670(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,240,187,2,0 // vbroadcastss 0x2bbf0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,206,198,2,0 // vbroadcastss 0x2c6ce(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,165,199,2,0 // vbroadcastss 0x2c7a5(%rip),%ymm11 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,78,188,2,0 // vbroadcastss 0x2bc4e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,37,189,2,0 // vbroadcastss 0x2bd25(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14281,16 +14171,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,124,199,2,0 // vbroadcastss 0x2c77c(%rip),%ymm0 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,252,188,2,0 // vbroadcastss 0x2bcfc(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,35,198,2,0 // vbroadcastss 0x2c623(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,163,187,2,0 // vbroadcastss 0x2bba3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,110,199,2,0 // vbroadcastss 0x2c76e(%rip),%ymm9 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,97,199,2,0 // vbroadcastss 0x2c761(%rip),%ymm10 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,238,188,2,0 // vbroadcastss 0x2bcee(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,225,188,2,0 // vbroadcastss 0x2bce1(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,247,197,2,0 // vbroadcastss 0x2c5f7(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,119,187,2,0 // vbroadcastss 0x2bb77(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,77,199,2,0 // vbroadcastss 0x2c74d(%rip),%ymm10 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,205,188,2,0 // vbroadcastss 0x2bccd(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14301,14 +14191,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,205,197,2,0 // vbroadcastss 0x2c5cd(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,77,187,2,0 // vbroadcastss 0x2bb4d(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,24,199,2,0 // vbroadcastss 0x2c718(%rip),%ymm10 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,11,199,2,0 // vbroadcastss 0x2c70b(%rip),%ymm11 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,152,188,2,0 // vbroadcastss 0x2bc98(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,139,188,2,0 // vbroadcastss 0x2bc8b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,0,199,2,0 // vbroadcastss 0x2c700(%rip),%ymm8 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,128,188,2,0 // vbroadcastss 0x2bc80(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14319,12 +14209,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,224,198,2,0 // vbroadcastss 0x2c6e0(%rip),%ymm0 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,96,188,2,0 // vbroadcastss 0x2bc60(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,222,197,2,0 // vbroadcastss 0x2c5de(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,181,198,2,0 // vbroadcastss 0x2c6b5(%rip),%ymm11 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,94,187,2,0 // vbroadcastss 0x2bb5e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,53,188,2,0 // vbroadcastss 0x2bc35(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14336,13 +14226,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,144,198,2,0 // vbroadcastss 0x2c690(%rip),%ymm1 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,16,188,2,0 // vbroadcastss 0x2bc10(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,50,197,2,0 // vbroadcastss 0x2c532(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,178,186,2,0 // vbroadcastss 0x2bab2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,144,197,2,0 // vbroadcastss 0x2c590(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,103,198,2,0 // vbroadcastss 0x2c667(%rip),%ymm11 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,16,187,2,0 // vbroadcastss 0x2bb10(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,231,187,2,0 // vbroadcastss 0x2bbe7(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14354,16 +14244,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,62,198,2,0 // vbroadcastss 0x2c63e(%rip),%ymm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,190,187,2,0 // vbroadcastss 0x2bbbe(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,228,196,2,0 // vbroadcastss 0x2c4e4(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,100,186,2,0 // vbroadcastss 0x2ba64(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,47,198,2,0 // vbroadcastss 0x2c62f(%rip),%ymm9 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,34,198,2,0 // vbroadcastss 0x2c622(%rip),%ymm10 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,175,187,2,0 // vbroadcastss 0x2bbaf(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,162,187,2,0 // vbroadcastss 0x2bba2(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,184,196,2,0 // vbroadcastss 0x2c4b8(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,56,186,2,0 // vbroadcastss 0x2ba38(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,14,198,2,0 // vbroadcastss 0x2c60e(%rip),%ymm10 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,142,187,2,0 // vbroadcastss 0x2bb8e(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14374,14 +14264,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,142,196,2,0 // vbroadcastss 0x2c48e(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,14,186,2,0 // vbroadcastss 0x2ba0e(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,216,197,2,0 // vbroadcastss 0x2c5d8(%rip),%ymm10 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,203,197,2,0 // vbroadcastss 0x2c5cb(%rip),%ymm11 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,88,187,2,0 // vbroadcastss 0x2bb58(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,75,187,2,0 // vbroadcastss 0x2bb4b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,192,197,2,0 // vbroadcastss 0x2c5c0(%rip),%ymm8 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,64,187,2,0 // vbroadcastss 0x2bb40(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14392,12 +14282,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,160,197,2,0 // vbroadcastss 0x2c5a0(%rip),%ymm1 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,32,187,2,0 // vbroadcastss 0x2bb20(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,157,196,2,0 // vbroadcastss 0x2c49d(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,116,197,2,0 // vbroadcastss 0x2c574(%rip),%ymm11 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,29,186,2,0 // vbroadcastss 0x2ba1d(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,244,186,2,0 // vbroadcastss 0x2baf4(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14537,7 +14427,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,54,195,2,0 // vpbroadcastd 0x2c336(%rip),%ymm15 # 3b008 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,61,182,184,2,0 // vpbroadcastd 0x2b8b6(%rip),%ymm15 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -14549,13 +14439,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,148,193,2,0 // vpbroadcastd 0x2c194(%rip),%ymm7 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,226,125,88,61,20,183,2,0 // vpbroadcastd 0x2b714(%rip),%ymm7 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,200,194,2,0 // vbroadcastss 0x2c2c8(%rip),%ymm0 # 3b004 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,72,184,2,0 // vbroadcastss 0x2b848(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -14817,7 +14707,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,97,189,2,0 // vpbroadcastd 0x2bd61(%rip),%ymm10 # 3b008 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,21,225,178,2,0 // vpbroadcastd 0x2b2e1(%rip),%ymm10 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -14829,13 +14719,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,188,187,2,0 // vpbroadcastd 0x2bbbc(%rip),%ymm11 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,29,60,177,2,0 // vpbroadcastd 0x2b13c(%rip),%ymm11 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,241,188,2,0 // vbroadcastss 0x2bcf1(%rip),%ymm0 # 3b004 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,113,178,2,0 // vbroadcastss 0x2b271(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -15268,7 +15158,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,223,177,2,0 // vbroadcastss 0x2b1df(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,95,167,2,0 // vbroadcastss 0x2a75f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -15280,132 +15170,20 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,25,179,2,0 // vbroadcastss 0x2b319(%rip),%ymm0 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,226,125,24,13,12,179,2,0 // vbroadcastss 0x2b30c(%rip),%ymm1 # 3b00c <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,153,168,2,0 // vbroadcastss 0x2a899(%rip),%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,140,168,2,0 // vbroadcastss 0x2a88c(%rip),%ymm1 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,6,179,2,0 // vbroadcastss 0x2b306(%rip),%ymm0 # 3b014 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,5,134,168,2,0 // vbroadcastss 0x2a886(%rip),%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,252,178,2,0 // vbroadcastss 0x2b2fc(%rip),%ymm1 # 3b018 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,124,168,2,0 // vbroadcastss 0x2a87c(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,242,178,2,0 // vbroadcastss 0x2b2f2(%rip),%ymm0 # 3b01c <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,114,168,2,0 // vbroadcastss 0x2a872(%rip),%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
.byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilerp_clamp_8888_hsw
-.globl _sk_bilerp_clamp_8888_hsw
-FUNCTION(_sk_bilerp_clamp_8888_hsw)
-_sk_bilerp_clamp_8888_hsw:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp
- .byte 72,129,236,128,1,0,0 // sub $0x180,%rsp
- .byte 197,252,41,188,36,128,0,0,0 // vmovaps %ymm7,0x80(%rsp)
- .byte 197,252,41,116,36,96 // vmovaps %ymm6,0x60(%rsp)
- .byte 197,252,41,108,36,64 // vmovaps %ymm5,0x40(%rsp)
- .byte 197,252,41,100,36,32 // vmovaps %ymm4,0x20(%rsp)
- .byte 76,141,68,36,24 // lea 0x18(%rsp),%r8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,37,35,177,2,0 // vbroadcastss 0x2b123(%rip),%ymm4 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,88,212 // vaddps %ymm4,%ymm0,%ymm2
- .byte 196,227,125,8,218,1 // vroundps $0x1,%ymm2,%ymm3
- .byte 197,236,92,243 // vsubps %ymm3,%ymm2,%ymm6
- .byte 197,252,41,140,36,32,1,0,0 // vmovaps %ymm1,0x120(%rsp)
- .byte 197,244,88,204 // vaddps %ymm4,%ymm1,%ymm1
- .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
- .byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
- .byte 73,185,0,0,0,191,0,0,0,63 // movabs $0x3f000000bf000000,%r9
- .byte 77,137,8 // mov %r9,(%r8)
- .byte 76,141,76,36,32 // lea 0x20(%rsp),%r9
- .byte 196,226,125,24,13,231,176,2,0 // vbroadcastss 0x2b0e7(%rip),%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,244,92,222 // vsubps %ymm6,%ymm1,%ymm3
- .byte 197,252,41,156,36,64,1,0,0 // vmovaps %ymm3,0x140(%rsp)
- .byte 197,252,41,148,36,0,1,0,0 // vmovaps %ymm2,0x100(%rsp)
- .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 197,252,41,140,36,160,0,0,0 // vmovaps %ymm1,0xa0(%rsp)
- .byte 196,226,125,88,72,12 // vpbroadcastd 0xc(%rax),%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,117,254,242 // vpaddd %ymm2,%ymm1,%ymm14
- .byte 196,226,125,88,72,16 // vpbroadcastd 0x10(%rax),%ymm1
- .byte 197,245,254,202 // vpaddd %ymm2,%ymm1,%ymm1
- .byte 197,253,127,140,36,224,0,0,0 // vmovdqa %ymm1,0xe0(%rsp)
- .byte 76,139,16 // mov (%rax),%r10
- .byte 196,226,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm1
- .byte 197,252,41,140,36,192,0,0,0 // vmovaps %ymm1,0xc0(%rsp)
- .byte 197,122,16,45,213,177,2,0 // vmovss 0x2b1d5(%rip),%xmm13 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,226,125,24,37,248,176,2,0 // vbroadcastss 0x2b0f8(%rip),%ymm4 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 235,5 // jmp fe39 <_sk_bilerp_clamp_8888_hsw+0xfa>
- .byte 196,65,122,16,40 // vmovss (%r8),%xmm13
- .byte 196,194,125,24,237 // vbroadcastss %xmm13,%ymm5
- .byte 197,212,88,172,36,32,1,0,0 // vaddps 0x120(%rsp),%ymm5,%ymm5
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,244,95,237 // vmaxps %ymm5,%ymm1,%ymm5
- .byte 197,120,46,45,209,177,2,0 // vucomiss 0x2b1d1(%rip),%xmm13 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 197,124,40,188,36,0,1,0,0 // vmovaps 0x100(%rsp),%ymm15
- .byte 119,9 // ja fe6b <_sk_bilerp_clamp_8888_hsw+0x12c>
- .byte 197,124,40,188,36,160,0,0,0 // vmovaps 0xa0(%rsp),%ymm15
- .byte 197,212,93,172,36,224,0,0,0 // vminps 0xe0(%rsp),%ymm5,%ymm5
- .byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
- .byte 196,98,85,64,172,36,192,0,0,0 // vpmulld 0xc0(%rsp),%ymm5,%ymm13
- .byte 49,192 // xor %eax,%eax
- .byte 197,250,16,76,4,24 // vmovss 0x18(%rsp,%rax,1),%xmm1
- .byte 196,226,125,24,233 // vbroadcastss %xmm1,%ymm5
- .byte 197,212,88,232 // vaddps %ymm0,%ymm5,%ymm5
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 197,196,95,237 // vmaxps %ymm5,%ymm7,%ymm5
- .byte 196,193,84,93,238 // vminps %ymm14,%ymm5,%ymm5
- .byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
- .byte 197,149,254,237 // vpaddd %ymm5,%ymm13,%ymm5
- .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
- .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7
- .byte 196,66,69,144,20,170 // vpgatherdd %ymm7,(%r10,%ymm5,4),%ymm10
- .byte 197,173,219,45,33,181,2,0 // vpand 0x2b521(%rip),%ymm10,%ymm5 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x7f0>
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 197,84,89,228 // vmulps %ymm4,%ymm5,%ymm12
- .byte 196,226,45,0,45,48,181,2,0 // vpshufb 0x2b530(%rip),%ymm10,%ymm5 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x810>
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 197,212,89,236 // vmulps %ymm4,%ymm5,%ymm5
- .byte 196,226,45,0,61,63,181,2,0 // vpshufb 0x2b53f(%rip),%ymm10,%ymm7 # 3b420 <_sk_srcover_bgra_8888_sse2_lowp+0x830>
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 197,196,89,252 // vmulps %ymm4,%ymm7,%ymm7
- .byte 196,193,45,114,210,24 // vpsrld $0x18,%ymm10,%ymm10
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
- .byte 197,248,46,13,40,177,2,0 // vucomiss 0x2b128(%rip),%xmm1 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 197,124,40,214 // vmovaps %ymm6,%ymm10
- .byte 119,9 // ja ff0f <_sk_bilerp_clamp_8888_hsw+0x1d0>
- .byte 197,124,40,148,36,64,1,0,0 // vmovaps 0x140(%rsp),%ymm10
- .byte 196,193,4,89,202 // vmulps %ymm10,%ymm15,%ymm1
- .byte 196,66,117,184,204 // vfmadd231ps %ymm12,%ymm1,%ymm9
- .byte 196,98,117,184,197 // vfmadd231ps %ymm5,%ymm1,%ymm8
- .byte 196,226,117,184,215 // vfmadd231ps %ymm7,%ymm1,%ymm2
- .byte 196,194,117,184,219 // vfmadd231ps %ymm11,%ymm1,%ymm3
- .byte 72,131,192,4 // add $0x4,%rax
- .byte 72,131,248,8 // cmp $0x8,%rax
- .byte 15,133,78,255,255,255 // jne fe84 <_sk_bilerp_clamp_8888_hsw+0x145>
- .byte 73,131,192,4 // add $0x4,%r8
- .byte 77,57,200 // cmp %r9,%r8
- .byte 15,133,241,254,255,255 // jne fe34 <_sk_bilerp_clamp_8888_hsw+0xf5>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 197,252,40,100,36,32 // vmovaps 0x20(%rsp),%ymm4
- .byte 197,252,40,108,36,64 // vmovaps 0x40(%rsp),%ymm5
- .byte 197,252,40,116,36,96 // vmovaps 0x60(%rsp),%ymm6
- .byte 197,252,40,188,36,128,0,0,0 // vmovaps 0x80(%rsp),%ymm7
- .byte 255,208 // callq *%rax
- .byte 72,137,236 // mov %rbp,%rsp
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
- .byte 144 // nop
.byte 144 // nop
HIDDEN _sk_start_pipeline_avx
@@ -15429,13 +15207,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 1003e <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae fc02 <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 10000 <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja fbc4 <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -15454,10 +15232,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe ffc1 <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe fb85 <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 10031 <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je fbf5 <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15471,7 +15249,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne ffb3 <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne fb77 <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -15502,10 +15280,10 @@ _sk_seed_shader_avx:
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,22,174,2,0 // vbroadcastss 0x2ae16(%rip),%ymm2 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,202,165,2,0 // vbroadcastss 0x2a5ca(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,11,174,2,0 // vbroadcastss 0x2ae0b(%rip),%ymm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,191,165,2,0 // vbroadcastss 0x2a5bf(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -15519,46 +15297,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,163,183,2,0 // vpaddd 0x2b7a3(%rip),%xmm8,%xmm9 # 3b860 <_sk_srcover_bgra_8888_sse2_lowp+0xc70>
- .byte 197,57,254,5,171,183,2,0 // vpaddd 0x2b7ab(%rip),%xmm8,%xmm8 # 3b870 <_sk_srcover_bgra_8888_sse2_lowp+0xc80>
+ .byte 197,57,254,13,159,174,2,0 // vpaddd 0x2ae9f(%rip),%xmm8,%xmm9 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
+ .byte 197,57,254,5,167,174,2,0 // vpaddd 0x2aea7(%rip),%xmm8,%xmm8 # 3ab30 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,187,173,2,0 // vbroadcastss 0x2adbb(%rip),%ymm10 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,111,165,2,0 // vbroadcastss 0x2a56f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,162,191,2,0 // vmovddup 0x2bfa2(%rip),%xmm12 # 3c0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x14c0>
+ .byte 197,123,18,37,158,182,2,0 // vmovddup 0x2b69e(%rip),%xmm12 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,121,173,2,0 // vbroadcastss 0x2ad79(%rip),%ymm13 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,24,45,45,165,2,0 // vbroadcastss 0x2a52d(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,96,191,2,0 // vmovddup 0x2bf60(%rip),%xmm14 # 3c0b8 <_sk_srcover_bgra_8888_sse2_lowp+0x14c8>
+ .byte 197,123,18,53,92,182,2,0 // vmovddup 0x2b65c(%rip),%xmm14 # 3b378 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,40,173,2,0 // vbroadcastss 0x2ad28(%rip),%ymm14 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,24,53,220,164,2,0 // vbroadcastss 0x2a4dc(%rip),%ymm14 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,22,191,2,0 // vmovddup 0x2bf16(%rip),%xmm13 # 3c0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x14d0>
+ .byte 197,123,18,45,18,182,2,0 // vmovddup 0x2b612(%rip),%xmm13 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -15569,9 +15347,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,203,172,2,0 // vbroadcastss 0x2accb(%rip),%ymm9 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,13,127,164,2,0 // vbroadcastss 0x2a47f(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,193,172,2,0 // vbroadcastss 0x2acc1(%rip),%ymm9 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,117,164,2,0 // vbroadcastss 0x2a475(%rip),%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -15605,7 +15383,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,73,172,2,0 // vbroadcastss 0x2ac49(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,253,163,2,0 // vbroadcastss 0x2a3fd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15616,7 +15394,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,48,172,2,0 // vbroadcastss 0x2ac30(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,228,163,2,0 // vbroadcastss 0x2a3e4(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -15662,7 +15440,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,207,171,2,0 // vbroadcastss 0x2abcf(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,131,163,2,0 // vbroadcastss 0x2a383(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15683,7 +15461,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,141,171,2,0 // vbroadcastss 0x2ab8d(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,65,163,2,0 // vbroadcastss 0x2a341(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -15725,7 +15503,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,40,171,2,0 // vbroadcastss 0x2ab28(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,220,162,2,0 // vbroadcastss 0x2a2dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -15738,7 +15516,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,7,171,2,0 // vbroadcastss 0x2ab07(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,187,162,2,0 // vbroadcastss 0x2a2bb(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -15751,7 +15529,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,230,170,2,0 // vbroadcastss 0x2aae6(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,154,162,2,0 // vbroadcastss 0x2a29a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15768,7 +15546,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,181,170,2,0 // vbroadcastss 0x2aab5(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,105,162,2,0 // vbroadcastss 0x2a269(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -15796,7 +15574,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,112,170,2,0 // vbroadcastss 0x2aa70(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,36,162,2,0 // vbroadcastss 0x2a224(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15827,7 +15605,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,255,169,2,0 // vbroadcastss 0x2a9ff(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,179,161,2,0 // vbroadcastss 0x2a1b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -15861,7 +15639,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,158,169,2,0 // vbroadcastss 0x2a99e(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,82,161,2,0 // vbroadcastss 0x2a152(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15898,7 +15676,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,26,169,2,0 // vbroadcastss 0x2a91a(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,206,160,2,0 // vbroadcastss 0x2a0ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15924,7 +15702,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,194,168,2,0 // vbroadcastss 0x2a8c2(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,118,160,2,0 // vbroadcastss 0x2a076(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15953,7 +15731,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,94,168,2,0 // vbroadcastss 0x2a85e(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,18,160,2,0 // vbroadcastss 0x2a012(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15976,7 +15754,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,21,168,2,0 // vbroadcastss 0x2a815(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,201,159,2,0 // vbroadcastss 0x29fc9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15987,7 +15765,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,252,167,2,0 // vbroadcastss 0x2a7fc(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,176,159,2,0 // vbroadcastss 0x29fb0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -16049,7 +15827,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,0,167,2,0 // vbroadcastss 0x2a700(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,180,158,2,0 // vbroadcastss 0x29eb4(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -16106,7 +15884,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,11,166,2,0 // vbroadcastss 0x2a60b(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,191,157,2,0 // vbroadcastss 0x29dbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16161,7 +15939,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,48,165,2,0 // vbroadcastss 0x2a530(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,228,156,2,0 // vbroadcastss 0x29ce4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16227,10 +16005,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,55,164,2,0 // vbroadcastss 0x2a437(%rip),%ymm11 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,235,155,2,0 // vbroadcastss 0x29beb(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,40,164,2,0 // vbroadcastss 0x2a428(%rip),%ymm13 # 3aebc <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,45,220,155,2,0 // vbroadcastss 0x29bdc(%rip),%ymm13 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -16241,7 +16019,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,210,163,2,0 // vbroadcastss 0x2a3d2(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,134,155,2,0 // vbroadcastss 0x29b86(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -16368,12 +16146,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,181,161,2,0 // vbroadcastss 0x2a1b5(%rip),%ymm14 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,105,153,2,0 // vbroadcastss 0x29969(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,171,161,2,0 // vbroadcastss 0x2a1ab(%rip),%ymm15 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,95,153,2,0 // vbroadcastss 0x2995f(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,156,161,2,0 // vbroadcastss 0x2a19c(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,80,153,2,0 // vbroadcastss 0x29950(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16434,7 +16212,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,73,160,2,0 // vbroadcastss 0x2a049(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,253,151,2,0 // vbroadcastss 0x297fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16491,12 +16269,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,115,159,2,0 // vbroadcastss 0x29f73(%rip),%ymm14 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,39,151,2,0 // vbroadcastss 0x29727(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,105,159,2,0 // vbroadcastss 0x29f69(%rip),%ymm15 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,29,151,2,0 // vbroadcastss 0x2971d(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,90,159,2,0 // vbroadcastss 0x29f5a(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,14,151,2,0 // vbroadcastss 0x2970e(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16557,7 +16335,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,7,158,2,0 // vbroadcastss 0x29e07(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,187,149,2,0 // vbroadcastss 0x295bb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16586,12 +16364,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,185,157,2,0 // vbroadcastss 0x29db9(%rip),%ymm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,109,149,2,0 // vbroadcastss 0x2956d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,175,157,2,0 // vbroadcastss 0x29daf(%rip),%ymm14 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,99,149,2,0 // vbroadcastss 0x29563(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,160,157,2,0 // vbroadcastss 0x29da0(%rip),%ymm15 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,84,149,2,0 // vbroadcastss 0x29554(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16654,7 +16432,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,59,156,2,0 // vbroadcastss 0x29c3b(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,239,147,2,0 // vbroadcastss 0x293ef(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16684,12 +16462,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,233,155,2,0 // vbroadcastss 0x29be9(%rip),%ymm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,157,147,2,0 // vbroadcastss 0x2939d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,223,155,2,0 // vbroadcastss 0x29bdf(%rip),%ymm14 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,147,147,2,0 // vbroadcastss 0x29393(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,208,155,2,0 // vbroadcastss 0x29bd0(%rip),%ymm15 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,132,147,2,0 // vbroadcastss 0x29384(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16752,7 +16530,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,107,154,2,0 // vbroadcastss 0x29a6b(%rip),%ymm0 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,31,146,2,0 // vbroadcastss 0x2921f(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16784,9 +16562,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 115f7 <_sk_srcover_rgba_8888_avx+0x177>
+ .byte 15,133,87,1,0,0 // jne 111bb <_sk_srcover_rgba_8888_avx+0x177>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,5,178,159,2,0 // vmovapd 0x29fb2(%rip),%ymm8 # 3b460 <_sk_srcover_bgra_8888_sse2_lowp+0x870>
+ .byte 197,125,40,5,238,150,2,0 // vmovapd 0x296ee(%rip),%ymm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x7f8>
.byte 196,193,53,84,224 // vandpd %ymm8,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
@@ -16805,9 +16583,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,140,153,2,0 // vbroadcastss 0x2998c(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,64,145,2,0 // vbroadcastss 0x29140(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,171,153,2,0 // vbroadcastss 0x299ab(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,95,145,2,0 // vbroadcastss 0x2915f(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
@@ -16848,7 +16626,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1162f <_sk_srcover_rgba_8888_avx+0x1af>
+ .byte 117,66 // jne 111f3 <_sk_srcover_rgba_8888_avx+0x1af>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16857,33 +16635,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,150,254,255,255 // ja 114a6 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,150,254,255,255 // ja 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 11720 <_sk_srcover_rgba_8888_avx+0x2a0>
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 112e4 <_sk_srcover_rgba_8888_avx+0x2a0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,119,254,255,255 // jmpq 114a6 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,119,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 115f3 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 119,180 // ja 111b7 <_sk_srcover_rgba_8888_avx+0x173>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 1173c <_sk_srcover_rgba_8888_avx+0x2bc>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11300 <_sk_srcover_rgba_8888_avx+0x2bc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 115f3 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 235,152 // jmp 111b7 <_sk_srcover_rgba_8888_avx+0x173>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,36,254,255,255 // jmpq 114a6 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,36,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -16897,10 +16675,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,207,253,255,255 // jmpq 114a6 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,207,253,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 115f3 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 233,9,255,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -16908,7 +16686,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 115f3 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 233,213,254,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173>
.byte 102,144 // xchg %ax,%ax
.byte 4,255 // add $0xff,%al
.byte 255 // (bad)
@@ -16921,7 +16699,7 @@ _sk_srcover_rgba_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 11735 <_sk_srcover_rgba_8888_avx+0x2b5>
+ .byte 126,255 // jle 112f9 <_sk_srcover_rgba_8888_avx+0x2b5>
.byte 255 // (bad)
.byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
@@ -16955,9 +16733,9 @@ _sk_srcover_bgra_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 118cf <_sk_srcover_bgra_8888_avx+0x177>
+ .byte 15,133,87,1,0,0 // jne 11493 <_sk_srcover_bgra_8888_avx+0x177>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,5,250,156,2,0 // vmovapd 0x29cfa(%rip),%ymm8 # 3b480 <_sk_srcover_bgra_8888_sse2_lowp+0x890>
+ .byte 197,125,40,5,54,148,2,0 // vmovapd 0x29436(%rip),%ymm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x818>
.byte 196,193,53,84,232 // vandpd %ymm8,%ymm9,%ymm5
.byte 197,252,91,245 // vcvtdq2ps %ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
@@ -16976,9 +16754,9 @@ _sk_srcover_bgra_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,180,150,2,0 // vbroadcastss 0x296b4(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,104,142,2,0 // vbroadcastss 0x28e68(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,211,150,2,0 // vbroadcastss 0x296d3(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,135,142,2,0 // vbroadcastss 0x28e87(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
@@ -17019,7 +16797,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 11907 <_sk_srcover_bgra_8888_avx+0x1af>
+ .byte 117,66 // jne 114cb <_sk_srcover_bgra_8888_avx+0x1af>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17028,33 +16806,33 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,150,254,255,255 // ja 1177e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 15,135,150,254,255,255 // ja 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 119f8 <_sk_srcover_bgra_8888_avx+0x2a0>
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 115bc <_sk_srcover_bgra_8888_avx+0x2a0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,119,254,255,255 // jmpq 1177e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,119,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 118cb <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 119,180 // ja 1148f <_sk_srcover_bgra_8888_avx+0x173>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11a14 <_sk_srcover_bgra_8888_avx+0x2bc>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 115d8 <_sk_srcover_bgra_8888_avx+0x2bc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 118cb <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 235,152 // jmp 1148f <_sk_srcover_bgra_8888_avx+0x173>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,36,254,255,255 // jmpq 1177e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,36,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -17068,10 +16846,10 @@ _sk_srcover_bgra_8888_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,207,253,255,255 // jmpq 1177e <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,207,253,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 118cb <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 233,9,255,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -17079,7 +16857,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 118cb <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 233,213,254,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173>
.byte 102,144 // xchg %ax,%ax
.byte 4,255 // add $0xff,%al
.byte 255 // (bad)
@@ -17092,7 +16870,7 @@ _sk_srcover_bgra_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 11a0d <_sk_srcover_bgra_8888_avx+0x2b5>
+ .byte 126,255 // jle 115d1 <_sk_srcover_bgra_8888_avx+0x2b5>
.byte 255 // (bad)
.byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
@@ -17130,7 +16908,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,74,148,2,0 // vbroadcastss 0x2944a(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,254,139,2,0 // vbroadcastss 0x28bfe(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -17142,7 +16920,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,41,148,2,0 // vbroadcastss 0x29429(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,221,139,2,0 // vbroadcastss 0x28bdd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -17154,7 +16932,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,11,148,2,0 // vbroadcastss 0x2940b(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,191,139,2,0 // vbroadcastss 0x28bbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -17187,7 +16965,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,198,147,2,0 // vbroadcastss 0x293c6(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,122,139,2,0 // vbroadcastss 0x28b7a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -17241,9 +17019,9 @@ HIDDEN _sk_unpremul_avx
.globl _sk_unpremul_avx
FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
- .byte 196,98,125,24,5,97,147,2,0 // vbroadcastss 0x29361(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,21,139,2,0 // vbroadcastss 0x28b15(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,132,147,2,0 // vbroadcastss 0x29384(%rip),%ymm9 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,56,139,2,0 // vbroadcastss 0x28b38(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -17257,17 +17035,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,94,147,2,0 // vbroadcastss 0x2935e(%rip),%ymm8 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,18,139,2,0 // vbroadcastss 0x28b12(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,56,147,2,0 // vbroadcastss 0x29338(%rip),%ymm11 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,236,138,2,0 // vbroadcastss 0x28aec(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,66,147,2,0 // vbroadcastss 0x29342(%rip),%ymm13 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,246,138,2,0 // vbroadcastss 0x28af6(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,51,147,2,0 // vbroadcastss 0x29333(%rip),%ymm12 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,231,138,2,0 // vbroadcastss 0x28ae7(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,41,147,2,0 // vbroadcastss 0x29329(%rip),%ymm14 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,221,138,2,0 // vbroadcastss 0x28add(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -17293,17 +17071,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,178,146,2,0 // vbroadcastss 0x292b2(%rip),%ymm8 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,102,138,2,0 // vbroadcastss 0x28a66(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,140,146,2,0 // vbroadcastss 0x2928c(%rip),%ymm11 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,64,138,2,0 // vbroadcastss 0x28a40(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,150,146,2,0 // vbroadcastss 0x29296(%rip),%ymm13 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,74,138,2,0 // vbroadcastss 0x28a4a(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,135,146,2,0 // vbroadcastss 0x29287(%rip),%ymm12 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,59,138,2,0 // vbroadcastss 0x28a3b(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,125,146,2,0 // vbroadcastss 0x2927d(%rip),%ymm14 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,49,138,2,0 // vbroadcastss 0x28a31(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -17330,20 +17108,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,18,146,2,0 // vbroadcastss 0x29212(%rip),%ymm8 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,198,137,2,0 // vbroadcastss 0x289c6(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,12,146,2,0 // vbroadcastss 0x2920c(%rip),%ymm11 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,192,137,2,0 // vbroadcastss 0x289c0(%rip),%ymm11 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,250,145,2,0 // vbroadcastss 0x291fa(%rip),%ymm13 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,45,174,137,2,0 // vbroadcastss 0x289ae(%rip),%ymm13 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,31,147,2,0 // vbroadcastss 0x2931f(%rip),%ymm14 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,211,138,2,0 // vbroadcastss 0x28ad3(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,21,147,2,0 // vbroadcastss 0x29315(%rip),%ymm15 # 3b024 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,201,138,2,0 // vbroadcastss 0x28ac9(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,209,145,2,0 // vbroadcastss 0x291d1(%rip),%ymm12 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,37,133,137,2,0 // vbroadcastss 0x28985(%rip),%ymm12 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -17380,7 +17158,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,217,144,2,0 // vbroadcastss 0x290d9(%rip),%ymm11 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,141,136,2,0 // vbroadcastss 0x2888d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -17390,19 +17168,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,10,145,2,0 // vbroadcastss 0x2910a(%rip),%ymm11 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,29,190,136,2,0 // vbroadcastss 0x288be(%rip),%ymm11 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,248,144,2,0 // vbroadcastss 0x290f8(%rip),%ymm11 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,29,172,136,2,0 // vbroadcastss 0x288ac(%rip),%ymm11 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,224,144,2,0 // vbroadcastss 0x290e0(%rip),%ymm2 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,226,125,24,21,148,136,2,0 // vbroadcastss 0x28894(%rip),%ymm2 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,87,144,2,0 // vbroadcastss 0x29057(%rip),%ymm12 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,11,136,2,0 // vbroadcastss 0x2880b(%rip),%ymm12 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -17412,7 +17190,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,138,144,2,0 // vbroadcastss 0x2908a(%rip),%ymm8 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,62,136,2,0 // vbroadcastss 0x2883e(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17429,7 +17207,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,227,143,2,0 // vbroadcastss 0x28fe3(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,151,135,2,0 // vbroadcastss 0x28797(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -17437,23 +17215,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,41,144,2,0 // vbroadcastss 0x29029(%rip),%ymm11 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,221,135,2,0 // vbroadcastss 0x287dd(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,251,143,2,0 // vbroadcastss 0x28ffb(%rip),%ymm12 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,37,175,135,2,0 // vbroadcastss 0x287af(%rip),%ymm12 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,245,143,2,0 // vbroadcastss 0x28ff5(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,45,169,135,2,0 // vbroadcastss 0x287a9(%rip),%ymm13 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,234,143,2,0 // vbroadcastss 0x28fea(%rip),%ymm1 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,13,158,135,2,0 // vbroadcastss 0x2879e(%rip),%ymm1 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,193,143,2,0 // vbroadcastss 0x28fc1(%rip),%ymm14 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,53,117,135,2,0 // vbroadcastss 0x28775(%rip),%ymm14 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -17472,7 +17250,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,107,143,2,0 // vbroadcastss 0x28f6b(%rip),%ymm0 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,31,135,2,0 // vbroadcastss 0x2871f(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -17526,15 +17304,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 120af <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 11c73 <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,190,151,2,0 // vpand 0x297be(%rip),%xmm8,%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,57,219,5,186,142,2,0 // vpand 0x28eba(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,130,142,2,0 // vbroadcastss 0x28e82(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,54,134,2,0 // vbroadcastss 0x28636(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -17547,15 +17325,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 1206a <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 11c2e <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12148 <_sk_scale_u8_avx+0xfc>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 11d0c <_sk_scale_u8_avx+0xfc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 1206a <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 11c2e <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17563,7 +17341,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 1206a <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17574,7 +17352,7 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 1206a <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17608,26 +17386,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 12235 <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 11df9 <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,116,141,2,0 // vbroadcastss 0x28d74(%rip),%ymm9 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,40,133,2,0 // vbroadcastss 0x28528(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,101,141,2,0 // vbroadcastss 0x28d65(%rip),%ymm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,25,133,2,0 // vbroadcastss 0x28519(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,91,141,2,0 // vbroadcastss 0x28d5b(%rip),%ymm10 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,15,133,2,0 // vbroadcastss 0x2850f(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,76,141,2,0 // vbroadcastss 0x28d4c(%rip),%ymm11 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,0,133,2,0 // vbroadcastss 0x28500(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,66,141,2,0 // vbroadcastss 0x28d42(%rip),%ymm11 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,246,132,2,0 // vbroadcastss 0x284f6(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,51,141,2,0 // vbroadcastss 0x28d33(%rip),%ymm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,231,132,2,0 // vbroadcastss 0x284e7(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17646,27 +17424,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 12189 <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 11d4d <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 122bc <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11e80 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 12189 <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 12189 <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 12189 <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17718,15 +17496,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 1239e <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 11f62 <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,243,148,2,0 // vpand 0x294f3(%rip),%xmm8,%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,57,219,5,239,139,2,0 // vpand 0x28bef(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,183,139,2,0 // vbroadcastss 0x28bb7(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,107,131,2,0 // vbroadcastss 0x2836b(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -17747,15 +17525,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 12335 <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 1243c <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 12000 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 12335 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17763,7 +17541,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 12335 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17774,7 +17552,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 12335 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -17782,7 +17560,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde01244c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd785c>
+ .byte 232,255,255,255,221 // callq ffffffffde012010 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd80a8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -17805,26 +17583,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 1254d <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 12111 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,128,138,2,0 // vbroadcastss 0x28a80(%rip),%ymm9 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,52,130,2,0 // vbroadcastss 0x28234(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,113,138,2,0 // vbroadcastss 0x28a71(%rip),%ymm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,37,130,2,0 // vbroadcastss 0x28225(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,103,138,2,0 // vbroadcastss 0x28a67(%rip),%ymm10 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,27,130,2,0 // vbroadcastss 0x2821b(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,88,138,2,0 // vbroadcastss 0x28a58(%rip),%ymm11 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,12,130,2,0 // vbroadcastss 0x2820c(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,78,138,2,0 // vbroadcastss 0x28a4e(%rip),%ymm11 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,63,138,2,0 // vbroadcastss 0x28a3f(%rip),%ymm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,243,129,2,0 // vbroadcastss 0x281f3(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17851,27 +17629,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 1247d <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 12041 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 125d4 <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 12198 <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 1247d <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 1247d <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 1247d <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17899,9 +17677,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 12808 <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 123cc <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,142,142,2,0 // vmovapd 0x28e8e(%rip),%ymm9 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x8b0>
+ .byte 197,125,40,13,202,133,2,0 // vmovapd 0x285ca(%rip),%ymm9 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x838>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -17993,7 +17771,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,30,135,2,0 // vbroadcastss 0x2871e(%rip),%ymm7 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,61,210,126,2,0 // vbroadcastss 0x27ed2(%rip),%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -18003,21 +17781,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 1260a <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 121ce <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 128c0 <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 12484 <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 1260a <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 1260a <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -18031,9 +17809,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 1260a <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 128c1 <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 12485 <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -18063,7 +17841,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 12b49 <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 1270d <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -18079,7 +17857,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,224,142,2,0 // vmovdqa 0x28ee0(%rip),%xmm11 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,121,111,29,220,133,2,0 // vmovdqa 0x285dc(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -18173,7 +17951,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,255,131,2,0 // vbroadcastss 0x283ff(%rip),%ymm6 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,226,125,24,53,179,123,2,0 // vbroadcastss 0x27bb3(%rip),%ymm6 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -18182,29 +17960,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 12baf <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 12773 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 12baf <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 12773 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 12bbc <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 12780 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 12bbc <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 12780 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 12919 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 12919 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 12919 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 12919 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 12919 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -18216,7 +17994,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 12e19 <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 129dd <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -18237,7 +18015,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,224,139,2,0 // vmovdqa 0x28be0(%rip),%xmm14 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,121,111,53,220,130,2,0 // vmovdqa 0x282dc(%rip),%xmm14 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -18323,7 +18101,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,149,128,2,0 // vbroadcastss 0x28095(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,73,120,2,0 // vbroadcastss 0x27849(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -18331,63 +18109,63 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 12e51 <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 12a15 <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 12c18 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 12e9b <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 12a5f <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 12eb5 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 12a79 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 12c18 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 12c18 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 12ef6 <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 12aba <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 12f07 <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 12acb <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 12c18 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 12c18 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 12f3a <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 12afe <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 12c18 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 12c18 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
@@ -18400,9 +18178,9 @@ _sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,55,127,2,0 // vbroadcastss 0x27f37(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,235,118,2,0 // vbroadcastss 0x276eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,85,127,2,0 // vbroadcastss 0x27f55(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,9,119,2,0 // vbroadcastss 0x27709(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
.byte 196,65,249,126,216 // vmovq %xmm11,%r8
@@ -18540,7 +18318,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,6,125,2,0 // vbroadcastss 0x27d06(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,186,116,2,0 // vbroadcastss 0x274ba(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
@@ -18578,7 +18356,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,21,241,123,2,0 // vbroadcastss 0x27bf1(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,165,115,2,0 // vbroadcastss 0x273a5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
@@ -18683,7 +18461,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,111,122,2,0 // vbroadcastss 0x27a6f(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,35,114,2,0 // vbroadcastss 0x27223(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
@@ -18717,7 +18495,7 @@ _sk_table_r_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,126,121,2,0 // vbroadcastss 0x2797e(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,50,113,2,0 // vbroadcastss 0x27132(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
@@ -18772,7 +18550,7 @@ _sk_table_g_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 196,98,125,24,13,165,120,2,0 // vbroadcastss 0x278a5(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,89,112,2,0 // vbroadcastss 0x27059(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
@@ -18827,7 +18605,7 @@ _sk_table_b_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,210 // vmaxps %ymm2,%ymm9,%ymm2
- .byte 196,98,125,24,13,204,119,2,0 // vbroadcastss 0x277cc(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,128,111,2,0 // vbroadcastss 0x26f80(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -18882,7 +18660,7 @@ _sk_table_a_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3
- .byte 196,98,125,24,13,243,118,2,0 // vbroadcastss 0x276f3(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,167,110,2,0 // vbroadcastss 0x26ea7(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,217 // vminps %ymm9,%ymm3,%ymm3
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
@@ -18938,36 +18716,36 @@ _sk_parametric_r_avx:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,150,118,2,0 // vbroadcastss 0x27696(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,74,110,2,0 // vbroadcastss 0x26e4a(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,140,118,2,0 // vbroadcastss 0x2768c(%rip),%ymm14 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,64,110,2,0 // vbroadcastss 0x26e40(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,222,117,2,0 // vbroadcastss 0x275de(%rip),%ymm14 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,146,109,2,0 // vbroadcastss 0x26d92(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,116,118,2,0 // vbroadcastss 0x27674(%rip),%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,40,110,2,0 // vbroadcastss 0x26e28(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,106,118,2,0 // vbroadcastss 0x2766a(%rip),%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,30,110,2,0 // vbroadcastss 0x26e1e(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,91,118,2,0 // vbroadcastss 0x2765b(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,15,110,2,0 // vbroadcastss 0x26e0f(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,81,118,2,0 // vbroadcastss 0x27651(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,5,110,2,0 // vbroadcastss 0x26e05(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,50,118,2,0 // vbroadcastss 0x27632(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,230,109,2,0 // vbroadcastss 0x26de6(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,40,118,2,0 // vbroadcastss 0x27628(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,220,109,2,0 // vbroadcastss 0x26ddc(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,25,118,2,0 // vbroadcastss 0x27619(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,205,109,2,0 // vbroadcastss 0x26dcd(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,15,118,2,0 // vbroadcastss 0x2760f(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,195,109,2,0 // vbroadcastss 0x26dc3(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,0,118,2,0 // vbroadcastss 0x27600(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,180,109,2,0 // vbroadcastss 0x26db4(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -18975,7 +18753,7 @@ _sk_parametric_r_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,18,117,2,0 // vbroadcastss 0x27512(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18999,36 +18777,36 @@ _sk_parametric_g_avx:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,77,117,2,0 // vbroadcastss 0x2754d(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,1,109,2,0 // vbroadcastss 0x26d01(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,67,117,2,0 // vbroadcastss 0x27543(%rip),%ymm14 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,247,108,2,0 // vbroadcastss 0x26cf7(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,149,116,2,0 // vbroadcastss 0x27495(%rip),%ymm14 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,73,108,2,0 // vbroadcastss 0x26c49(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,43,117,2,0 // vbroadcastss 0x2752b(%rip),%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,223,108,2,0 // vbroadcastss 0x26cdf(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,33,117,2,0 // vbroadcastss 0x27521(%rip),%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,213,108,2,0 // vbroadcastss 0x26cd5(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,18,117,2,0 // vbroadcastss 0x27512(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,8,117,2,0 // vbroadcastss 0x27508(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,188,108,2,0 // vbroadcastss 0x26cbc(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,233,116,2,0 // vbroadcastss 0x274e9(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,157,108,2,0 // vbroadcastss 0x26c9d(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,223,116,2,0 // vbroadcastss 0x274df(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,147,108,2,0 // vbroadcastss 0x26c93(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,208,116,2,0 // vbroadcastss 0x274d0(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,132,108,2,0 // vbroadcastss 0x26c84(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,198,116,2,0 // vbroadcastss 0x274c6(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,122,108,2,0 // vbroadcastss 0x26c7a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,183,116,2,0 // vbroadcastss 0x274b7(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,107,108,2,0 // vbroadcastss 0x26c6b(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -19036,7 +18814,7 @@ _sk_parametric_g_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,201,115,2,0 // vbroadcastss 0x273c9(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19060,36 +18838,36 @@ _sk_parametric_b_avx:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,4,116,2,0 // vbroadcastss 0x27404(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,184,107,2,0 // vbroadcastss 0x26bb8(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,250,115,2,0 // vbroadcastss 0x273fa(%rip),%ymm14 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,174,107,2,0 // vbroadcastss 0x26bae(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,76,115,2,0 // vbroadcastss 0x2734c(%rip),%ymm14 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,0,107,2,0 // vbroadcastss 0x26b00(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,226,115,2,0 // vbroadcastss 0x273e2(%rip),%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,150,107,2,0 // vbroadcastss 0x26b96(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,216,115,2,0 // vbroadcastss 0x273d8(%rip),%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,140,107,2,0 // vbroadcastss 0x26b8c(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,201,115,2,0 // vbroadcastss 0x273c9(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,191,115,2,0 // vbroadcastss 0x273bf(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,115,107,2,0 // vbroadcastss 0x26b73(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,160,115,2,0 // vbroadcastss 0x273a0(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,84,107,2,0 // vbroadcastss 0x26b54(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,150,115,2,0 // vbroadcastss 0x27396(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,74,107,2,0 // vbroadcastss 0x26b4a(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,135,115,2,0 // vbroadcastss 0x27387(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,59,107,2,0 // vbroadcastss 0x26b3b(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,125,115,2,0 // vbroadcastss 0x2737d(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,49,107,2,0 // vbroadcastss 0x26b31(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,110,115,2,0 // vbroadcastss 0x2736e(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,34,107,2,0 // vbroadcastss 0x26b22(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -19097,7 +18875,7 @@ _sk_parametric_b_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,128,114,2,0 // vbroadcastss 0x27280(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19121,36 +18899,36 @@ _sk_parametric_a_avx:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,187,114,2,0 // vbroadcastss 0x272bb(%rip),%ymm14 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,111,106,2,0 // vbroadcastss 0x26a6f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,177,114,2,0 // vbroadcastss 0x272b1(%rip),%ymm14 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,101,106,2,0 // vbroadcastss 0x26a65(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,3,114,2,0 // vbroadcastss 0x27203(%rip),%ymm14 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,183,105,2,0 // vbroadcastss 0x269b7(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,153,114,2,0 // vbroadcastss 0x27299(%rip),%ymm14 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,77,106,2,0 // vbroadcastss 0x26a4d(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,143,114,2,0 // vbroadcastss 0x2728f(%rip),%ymm14 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,67,106,2,0 // vbroadcastss 0x26a43(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,128,114,2,0 // vbroadcastss 0x27280(%rip),%ymm14 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,118,114,2,0 // vbroadcastss 0x27276(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,42,106,2,0 // vbroadcastss 0x26a2a(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,87,114,2,0 // vbroadcastss 0x27257(%rip),%ymm13 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,11,106,2,0 // vbroadcastss 0x26a0b(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,77,114,2,0 // vbroadcastss 0x2724d(%rip),%ymm13 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,1,106,2,0 // vbroadcastss 0x26a01(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,62,114,2,0 // vbroadcastss 0x2723e(%rip),%ymm13 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,242,105,2,0 // vbroadcastss 0x269f2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,52,114,2,0 // vbroadcastss 0x27234(%rip),%ymm13 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,232,105,2,0 // vbroadcastss 0x269e8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,37,114,2,0 // vbroadcastss 0x27225(%rip),%ymm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,217,105,2,0 // vbroadcastss 0x269d9(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -19158,7 +18936,7 @@ _sk_parametric_a_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,55,113,2,0 // vbroadcastss 0x27137(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,235,104,2,0 // vbroadcastss 0x268eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19177,22 +18955,22 @@ _sk_gamma_avx:
.byte 197,252,17,76,36,128 // vmovups %ymm1,-0x80(%rsp)
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
.byte 197,252,91,204 // vcvtdq2ps %ymm4,%ymm1
- .byte 196,226,125,24,5,130,113,2,0 // vbroadcastss 0x27182(%rip),%ymm0 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,54,105,2,0 // vbroadcastss 0x26936(%rip),%ymm0 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,124,40,192 // vmovaps %ymm0,%ymm8
.byte 197,124,17,68,36,160 // vmovups %ymm8,-0x60(%rsp)
- .byte 196,98,125,24,13,111,113,2,0 // vbroadcastss 0x2716f(%rip),%ymm9 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,13,35,105,2,0 // vbroadcastss 0x26923(%rip),%ymm9 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,209 // vandps %ymm9,%ymm4,%ymm2
- .byte 196,98,125,24,21,193,112,2,0 // vbroadcastss 0x270c1(%rip),%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,117,104,2,0 // vbroadcastss 0x26875(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,108,86,210 // vorps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,29,87,113,2,0 // vbroadcastss 0x27157(%rip),%ymm11 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,29,11,105,2,0 // vbroadcastss 0x2690b(%rip),%ymm11 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,77,113,2,0 // vbroadcastss 0x2714d(%rip),%ymm12 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,1,105,2,0 // vbroadcastss 0x26901(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,108,89,220 // vmulps %ymm12,%ymm2,%ymm3
.byte 197,244,92,203 // vsubps %ymm3,%ymm1,%ymm1
- .byte 196,98,125,24,45,63,113,2,0 // vbroadcastss 0x2713f(%rip),%ymm13 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,243,104,2,0 // vbroadcastss 0x268f3(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 196,98,125,24,53,53,113,2,0 // vbroadcastss 0x27135(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,233,104,2,0 // vbroadcastss 0x268e9(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,210 // vdivps %ymm2,%ymm14,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -19200,19 +18978,19 @@ _sk_gamma_avx:
.byte 197,244,89,206 // vmulps %ymm6,%ymm1,%ymm1
.byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
.byte 197,244,92,234 // vsubps %ymm2,%ymm1,%ymm5
- .byte 196,98,125,24,61,19,113,2,0 // vbroadcastss 0x27113(%rip),%ymm15 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,199,104,2,0 // vbroadcastss 0x268c7(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1
- .byte 196,226,125,24,61,9,113,2,0 // vbroadcastss 0x27109(%rip),%ymm7 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,226,125,24,61,189,104,2,0 // vbroadcastss 0x268bd(%rip),%ymm7 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 197,212,89,215 // vmulps %ymm7,%ymm5,%ymm2
.byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 196,226,125,24,29,252,112,2,0 // vbroadcastss 0x270fc(%rip),%ymm3 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,29,176,104,2,0 // vbroadcastss 0x268b0(%rip),%ymm3 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,228,92,237 // vsubps %ymm5,%ymm3,%ymm5
- .byte 196,226,125,24,21,243,112,2,0 // vbroadcastss 0x270f3(%rip),%ymm2 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,21,167,104,2,0 // vbroadcastss 0x268a7(%rip),%ymm2 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,236,94,237 // vdivps %ymm5,%ymm2,%ymm5
.byte 197,252,88,197 // vaddps %ymm5,%ymm0,%ymm0
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 197,220,194,205,0 // vcmpeqps %ymm5,%ymm4,%ymm1
- .byte 196,226,125,24,37,221,112,2,0 // vbroadcastss 0x270dd(%rip),%ymm4 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,37,145,104,2,0 // vbroadcastss 0x26891(%rip),%ymm4 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,197,16 // vblendvps %ymm1,%ymm5,%ymm0,%ymm0
@@ -19294,23 +19072,23 @@ _sk_gamma_dst_avx:
.byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
.byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
.byte 197,252,91,196 // vcvtdq2ps %ymm4,%ymm0
- .byte 196,226,125,24,29,50,111,2,0 // vbroadcastss 0x26f32(%rip),%ymm3 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,29,230,102,2,0 // vbroadcastss 0x266e6(%rip),%ymm3 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,41,111,2,0 // vbroadcastss 0x26f29(%rip),%ymm1 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,226,125,24,13,221,102,2,0 // vbroadcastss 0x266dd(%rip),%ymm1 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,220,84,201 // vandps %ymm1,%ymm4,%ymm1
- .byte 196,226,125,24,21,119,110,2,0 // vbroadcastss 0x26e77(%rip),%ymm2 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,43,102,2,0 // vbroadcastss 0x2662b(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,8,111,2,0 // vbroadcastss 0x26f08(%rip),%ymm2 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,226,125,24,21,188,102,2,0 // vbroadcastss 0x266bc(%rip),%ymm2 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,37,249,110,2,0 // vbroadcastss 0x26ef9(%rip),%ymm12 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,173,102,2,0 // vbroadcastss 0x266ad(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,45,235,110,2,0 // vbroadcastss 0x26eeb(%rip),%ymm13 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,159,102,2,0 // vbroadcastss 0x2669f(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 196,98,125,24,53,225,110,2,0 // vbroadcastss 0x26ee1(%rip),%ymm14 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,149,102,2,0 // vbroadcastss 0x26695(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -19318,19 +19096,19 @@ _sk_gamma_dst_avx:
.byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,61,191,110,2,0 // vbroadcastss 0x26ebf(%rip),%ymm15 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,115,102,2,0 // vbroadcastss 0x26673(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,98,125,24,29,181,110,2,0 // vbroadcastss 0x26eb5(%rip),%ymm11 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,105,102,2,0 // vbroadcastss 0x26669(%rip),%ymm11 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,21,167,110,2,0 // vbroadcastss 0x26ea7(%rip),%ymm10 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,21,91,102,2,0 // vbroadcastss 0x2665b(%rip),%ymm10 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,172,92,241 // vsubps %ymm1,%ymm10,%ymm6
- .byte 196,98,125,24,13,158,110,2,0 // vbroadcastss 0x26e9e(%rip),%ymm9 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,13,82,102,2,0 // vbroadcastss 0x26652(%rip),%ymm9 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6
.byte 197,252,88,198 // vaddps %ymm6,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,220,194,225,0 // vcmpeqps %ymm1,%ymm4,%ymm4
- .byte 196,226,125,24,61,136,110,2,0 // vbroadcastss 0x26e88(%rip),%ymm7 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,61,60,102,2,0 // vbroadcastss 0x2663c(%rip),%ymm7 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,193,64 // vblendvps %ymm4,%ymm1,%ymm0,%ymm0
@@ -19404,31 +19182,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,51,109,2,0 // vbroadcastss 0x26d33(%rip),%ymm8 # 3af64 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,5,231,100,2,0 // vbroadcastss 0x264e7(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,141,108,2,0 // vbroadcastss 0x26c8d(%rip),%ymm8 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,65,100,2,0 // vbroadcastss 0x26441(%rip),%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,27,109,2,0 // vbroadcastss 0x26d1b(%rip),%ymm9 # 3af68 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,13,207,100,2,0 // vbroadcastss 0x264cf(%rip),%ymm9 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,7,109,2,0 // vbroadcastss 0x26d07(%rip),%ymm8 # 3af6c <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,5,187,100,2,0 // vbroadcastss 0x264bb(%rip),%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,253,108,2,0 // vbroadcastss 0x26cfd(%rip),%ymm8 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,98,125,24,5,177,100,2,0 // vbroadcastss 0x264b1(%rip),%ymm8 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,243,108,2,0 // vbroadcastss 0x26cf3(%rip),%ymm8 # 3af74 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,167,100,2,0 // vbroadcastss 0x264a7(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,229,108,2,0 // vbroadcastss 0x26ce5(%rip),%ymm8 # 3af78 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,5,153,100,2,0 // vbroadcastss 0x26499(%rip),%ymm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,206,108,2,0 // vbroadcastss 0x26cce(%rip),%ymm9 # 3af7c <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,130,100,2,0 // vbroadcastss 0x26482(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,195,108,2,0 // vbroadcastss 0x26cc3(%rip),%ymm11 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,119,100,2,0 // vbroadcastss 0x26477(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,185,108,2,0 // vbroadcastss 0x26cb9(%rip),%ymm12 # 3af84 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,109,100,2,0 // vbroadcastss 0x2646d(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -19443,9 +19221,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,111,108,2,0 // vbroadcastss 0x26c6f(%rip),%ymm0 # 3af88 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,35,100,2,0 // vbroadcastss 0x26423(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,102,108,2,0 // vbroadcastss 0x26c66(%rip),%ymm8 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,26,100,2,0 // vbroadcastss 0x2641a(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19461,15 +19239,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1438b <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 13f4f <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,219,116,2,0 // vpand 0x274db(%rip),%xmm0,%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,249,219,5,215,107,2,0 // vpand 0x26bd7(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,161,107,2,0 // vbroadcastss 0x26ba1(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,85,99,2,0 // vbroadcastss 0x26355(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19481,15 +19259,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 1434d <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 13f11 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 14424 <_sk_load_a8_avx+0xf5>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 13fe8 <_sk_load_a8_avx+0xf5>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp 1434d <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 13f11 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19497,7 +19275,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq 1434d <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19508,7 +19286,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq 1434d <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 143 // (bad)
.byte 255 // (bad)
@@ -19541,15 +19319,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1449c <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 14060 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,202,115,2,0 // vpand 0x273ca(%rip),%xmm4,%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,217,219,37,198,106,2,0 // vpand 0x26ac6(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,144,106,2,0 // vbroadcastss 0x26a90(%rip),%ymm5 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,68,98,2,0 // vbroadcastss 0x26244(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19561,15 +19339,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 1445e <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 14534 <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 140f8 <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp 1445e <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19577,7 +19355,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq 1445e <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19588,7 +19366,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq 1445e <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19597,7 +19375,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde014544 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd9954>
+ .byte 232,255,255,255,221 // callq ffffffffde014108 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda1a0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19677,7 +19455,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,150,104,2,0 // vbroadcastss 0x26896(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,74,96,2,0 // vbroadcastss 0x2604a(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19702,16 +19480,16 @@ _sk_store_a8_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,221,103,2,0 // vbroadcastss 0x267dd(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,145,95,2,0 // vbroadcastss 0x25f91(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,251,103,2,0 // vbroadcastss 0x267fb(%rip),%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,175,95,2,0 // vbroadcastss 0x25faf(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 146f9 <_sk_store_a8_avx+0x5b>
+ .byte 117,10 // jne 142bd <_sk_store_a8_avx+0x5b>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19719,25 +19497,25 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 146f5 <_sk_store_a8_avx+0x57>
+ .byte 119,236 // ja 142b9 <_sk_store_a8_avx+0x57>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,87,0,0,0 // lea 0x57(%rip),%r10 # 14770 <_sk_store_a8_avx+0xd2>
+ .byte 76,141,21,87,0,0,0 // lea 0x57(%rip),%r10 # 14334 <_sk_store_a8_avx+0xd2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 146f5 <_sk_store_a8_avx+0x57>
+ .byte 235,202 // jmp 142b9 <_sk_store_a8_avx+0x57>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,4,113,2,0 // vpshufb 0x27104(%rip),%xmm8,%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 196,98,57,0,5,0,104,2,0 // vpshufb 0x26800(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 146f5 <_sk_store_a8_avx+0x57>
+ .byte 235,176 // jmp 142b9 <_sk_store_a8_avx+0x57>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,234,112,2,0 // vpshufb 0x270ea(%rip),%xmm8,%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xc60>
+ .byte 196,98,57,0,5,230,103,2,0 // vpshufb 0x267e6(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 146f5 <_sk_store_a8_avx+0x57>
+ .byte 235,135 // jmp 142b9 <_sk_store_a8_avx+0x57>
.byte 102,144 // xchg %ax,%ax
.byte 178,255 // mov $0xff,%dl
.byte 255 // (bad)
@@ -19770,18 +19548,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 147ed <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 143b1 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,126,112,2,0 // vpand 0x2707e(%rip),%xmm0,%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,249,219,5,122,103,2,0 // vpand 0x2677a(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,68,103,2,0 // vbroadcastss 0x26744(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,248,94,2,0 // vbroadcastss 0x25ef8(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,189,102,2,0 // vbroadcastss 0x266bd(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,113,94,2,0 // vbroadcastss 0x25e71(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19790,15 +19568,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 147aa <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 1436e <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14884 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14448 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp 147aa <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 1436e <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19806,7 +19584,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq 147aa <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19817,7 +19595,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq 147aa <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19826,7 +19604,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf014894 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd9ca4>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf014458 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda4f0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19848,18 +19626,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 14901 <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 144c5 <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,106,111,2,0 // vpand 0x26f6a(%rip),%xmm4,%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 197,217,219,37,102,102,2,0 // vpand 0x26666(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,48,102,2,0 // vbroadcastss 0x26630(%rip),%ymm5 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,228,93,2,0 // vbroadcastss 0x25de4(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,169,101,2,0 // vbroadcastss 0x265a9(%rip),%ymm7 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,93,93,2,0 // vbroadcastss 0x25d5d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -19868,15 +19646,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 148be <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14998 <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 1455c <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp 148be <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19884,7 +19662,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq 148be <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19895,7 +19673,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq 148be <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19904,7 +19682,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf0149a8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd9db8>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf01456c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda604>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19984,10 +19762,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,50,100,2,0 // vbroadcastss 0x26432(%rip),%ymm1 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,230,91,2,0 // vbroadcastss 0x25be6(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,171,99,2,0 // vbroadcastss 0x263ab(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,95,91,2,0 // vbroadcastss 0x25b5f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -20009,56 +19787,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 14ba8 <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 1476c <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,210,99,2,0 // vbroadcastss 0x263d2(%rip),%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,134,91,2,0 // vbroadcastss 0x25b86(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,197,99,2,0 // vbroadcastss 0x263c5(%rip),%ymm1 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,121,91,2,0 // vbroadcastss 0x25b79(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,188,99,2,0 // vbroadcastss 0x263bc(%rip),%ymm1 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,112,91,2,0 // vbroadcastss 0x25b70(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,175,99,2,0 // vbroadcastss 0x263af(%rip),%ymm3 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,99,91,2,0 // vbroadcastss 0x25b63(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,166,99,2,0 // vbroadcastss 0x263a6(%rip),%ymm3 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,90,91,2,0 // vbroadcastss 0x25b5a(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,153,99,2,0 // vbroadcastss 0x26399(%rip),%ymm3 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,77,91,2,0 // vbroadcastss 0x25b4d(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,250,98,2,0 // vbroadcastss 0x262fa(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,174,90,2,0 // vbroadcastss 0x25aae(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 14b2c <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 146f0 <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 14c2c <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 147f0 <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq 14b2c <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq 14b2c <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq 14b2c <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -20090,56 +19868,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 14ce9 <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 148ad <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,145,98,2,0 // vbroadcastss 0x26291(%rip),%ymm4 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,37,69,90,2,0 // vbroadcastss 0x25a45(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,132,98,2,0 // vbroadcastss 0x26284(%rip),%ymm5 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,56,90,2,0 // vbroadcastss 0x25a38(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,123,98,2,0 // vbroadcastss 0x2627b(%rip),%ymm5 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,45,47,90,2,0 // vbroadcastss 0x25a2f(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,110,98,2,0 // vbroadcastss 0x2626e(%rip),%ymm7 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,34,90,2,0 // vbroadcastss 0x25a22(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,101,98,2,0 // vbroadcastss 0x26265(%rip),%ymm7 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,61,25,90,2,0 // vbroadcastss 0x25a19(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,88,98,2,0 // vbroadcastss 0x26258(%rip),%ymm7 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,12,90,2,0 // vbroadcastss 0x25a0c(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,185,97,2,0 // vbroadcastss 0x261b9(%rip),%ymm7 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,109,89,2,0 // vbroadcastss 0x2596d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 14c6d <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 14831 <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14d70 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14934 <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq 14c6d <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq 14c6d <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq 14c6d <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20232,23 +20010,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,97,96,2,0 // vbroadcastss 0x26061(%rip),%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,21,88,2,0 // vbroadcastss 0x25815(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,84,96,2,0 // vbroadcastss 0x26054(%rip),%ymm1 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,8,88,2,0 // vbroadcastss 0x25808(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,75,96,2,0 // vbroadcastss 0x2604b(%rip),%ymm1 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,255,87,2,0 // vbroadcastss 0x257ff(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,62,96,2,0 // vbroadcastss 0x2603e(%rip),%ymm3 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,242,87,2,0 // vbroadcastss 0x257f2(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,53,96,2,0 // vbroadcastss 0x26035(%rip),%ymm3 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,233,87,2,0 // vbroadcastss 0x257e9(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,40,96,2,0 // vbroadcastss 0x26028(%rip),%ymm3 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,220,87,2,0 // vbroadcastss 0x257dc(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,137,95,2,0 // vbroadcastss 0x25f89(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,61,87,2,0 // vbroadcastss 0x2573d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -20269,9 +20047,9 @@ _sk_store_565_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,87,95,2,0 // vbroadcastss 0x25f57(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,11,87,2,0 // vbroadcastss 0x2570b(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,57,96,2,0 // vbroadcastss 0x26039(%rip),%ymm11 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,237,87,2,0 // vbroadcastss 0x257ed(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,25,114,241,11 // vpslld $0xb,%xmm9,%xmm12
@@ -20280,7 +20058,7 @@ _sk_store_565_avx:
.byte 196,67,29,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm12,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,9,96,2,0 // vbroadcastss 0x26009(%rip),%ymm13 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,45,189,87,2,0 // vbroadcastss 0x257bd(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,17,114,244,5 // vpslld $0x5,%xmm12,%xmm13
@@ -20296,7 +20074,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14fe4 <_sk_store_565_avx+0xc3>
+ .byte 117,10 // jne 14ba8 <_sk_store_565_avx+0xc3>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20304,22 +20082,22 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14fe0 <_sk_store_565_avx+0xbf>
+ .byte 119,236 // ja 14ba4 <_sk_store_565_avx+0xbf>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # 15044 <_sk_store_565_avx+0x123>
+ .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # 14c08 <_sk_store_565_avx+0x123>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 14fe0 <_sk_store_565_avx+0xbf>
+ .byte 235,207 // jmp 14ba4 <_sk_store_565_avx+0xbf>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 14fe0 <_sk_store_565_avx+0xbf>
+ .byte 235,191 // jmp 14ba4 <_sk_store_565_avx+0xbf>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 14fe0 <_sk_store_565_avx+0xbf>
+ .byte 235,159 // jmp 14ba4 <_sk_store_565_avx+0xbf>
.byte 15,31,0 // nopl (%rax)
.byte 196 // (bad)
.byte 255 // (bad)
@@ -20357,31 +20135,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 15119 <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 14cdd <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,245,94,2,0 // vbroadcastss 0x25ef5(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,169,86,2,0 // vbroadcastss 0x256a9(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,232,94,2,0 // vbroadcastss 0x25ee8(%rip),%ymm1 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,156,86,2,0 // vbroadcastss 0x2569c(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,223,94,2,0 // vbroadcastss 0x25edf(%rip),%ymm1 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,147,86,2,0 // vbroadcastss 0x25693(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,210,94,2,0 // vbroadcastss 0x25ed2(%rip),%ymm2 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,134,86,2,0 // vbroadcastss 0x25686(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,201,94,2,0 // vbroadcastss 0x25ec9(%rip),%ymm2 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,125,86,2,0 // vbroadcastss 0x2567d(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,188,94,2,0 // vbroadcastss 0x25ebc(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,112,86,2,0 // vbroadcastss 0x25670(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,178,94,2,0 // vbroadcastss 0x25eb2(%rip),%ymm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,102,86,2,0 // vbroadcastss 0x25666(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,164,94,2,0 // vbroadcastss 0x25ea4(%rip),%ymm8 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,88,86,2,0 // vbroadcastss 0x25658(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20390,27 +20168,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 15085 <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 14c49 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 151a0 <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14d64 <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq 15085 <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq 15085 <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 15085 <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20446,31 +20224,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 15275 <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 14e39 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,153,93,2,0 // vbroadcastss 0x25d99(%rip),%ymm4 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,37,77,85,2,0 // vbroadcastss 0x2554d(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,140,93,2,0 // vbroadcastss 0x25d8c(%rip),%ymm5 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,64,85,2,0 // vbroadcastss 0x25540(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,131,93,2,0 // vbroadcastss 0x25d83(%rip),%ymm5 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,45,55,85,2,0 // vbroadcastss 0x25537(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,118,93,2,0 // vbroadcastss 0x25d76(%rip),%ymm6 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,42,85,2,0 // vbroadcastss 0x2552a(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,109,93,2,0 // vbroadcastss 0x25d6d(%rip),%ymm6 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,53,33,85,2,0 // vbroadcastss 0x25521(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,96,93,2,0 // vbroadcastss 0x25d60(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,20,85,2,0 // vbroadcastss 0x25514(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,86,93,2,0 // vbroadcastss 0x25d56(%rip),%ymm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,10,85,2,0 // vbroadcastss 0x2550a(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,72,93,2,0 // vbroadcastss 0x25d48(%rip),%ymm8 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,252,84,2,0 // vbroadcastss 0x254fc(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20479,27 +20257,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 151e1 <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 152fc <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14ec0 <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq 151e1 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq 151e1 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq 151e1 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20592,25 +20370,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,81,91,2,0 // vbroadcastss 0x25b51(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,5,83,2,0 // vbroadcastss 0x25305(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,68,91,2,0 // vbroadcastss 0x25b44(%rip),%ymm1 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,248,82,2,0 // vbroadcastss 0x252f8(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,59,91,2,0 // vbroadcastss 0x25b3b(%rip),%ymm1 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,239,82,2,0 // vbroadcastss 0x252ef(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,46,91,2,0 // vbroadcastss 0x25b2e(%rip),%ymm2 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,226,82,2,0 // vbroadcastss 0x252e2(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,37,91,2,0 // vbroadcastss 0x25b25(%rip),%ymm2 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,217,82,2,0 // vbroadcastss 0x252d9(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,24,91,2,0 // vbroadcastss 0x25b18(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,204,82,2,0 // vbroadcastss 0x252cc(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,14,91,2,0 // vbroadcastss 0x25b0e(%rip),%ymm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,194,82,2,0 // vbroadcastss 0x252c2(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,0,91,2,0 // vbroadcastss 0x25b00(%rip),%ymm8 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,180,82,2,0 // vbroadcastss 0x252b4(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20633,9 +20411,9 @@ _sk_store_4444_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10
- .byte 196,98,125,24,13,179,89,2,0 // vbroadcastss 0x259b3(%rip),%ymm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,103,81,2,0 // vbroadcastss 0x25167(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
- .byte 196,98,125,24,29,189,90,2,0 // vbroadcastss 0x25abd(%rip),%ymm11 # 3afb8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,113,82,2,0 // vbroadcastss 0x25271(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,25,114,242,12 // vpslld $0xc,%xmm10,%xmm12
@@ -20668,7 +20446,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 155af <_sk_store_4444_avx+0xea>
+ .byte 117,10 // jne 15173 <_sk_store_4444_avx+0xea>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20676,22 +20454,22 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 155ab <_sk_store_4444_avx+0xe6>
+ .byte 119,236 // ja 1516f <_sk_store_4444_avx+0xe6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 1560c <_sk_store_4444_avx+0x147>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 151d0 <_sk_store_4444_avx+0x147>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 155ab <_sk_store_4444_avx+0xe6>
+ .byte 235,207 // jmp 1516f <_sk_store_4444_avx+0xe6>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 155ab <_sk_store_4444_avx+0xe6>
+ .byte 235,191 // jmp 1516f <_sk_store_4444_avx+0xe6>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 155ab <_sk_store_4444_avx+0xe6>
+ .byte 235,159 // jmp 1516f <_sk_store_4444_avx+0xe6>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20709,7 +20487,7 @@ _sk_store_4444_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1015624 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdaa34>
+ .byte 232,255,255,255,224 // callq ffffffffe10151e8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb280>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20726,12 +20504,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 156cf <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 15293 <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,106,94,2,0 // vmovapd 0x25e6a(%rip),%ymm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x8d0>
+ .byte 197,125,40,21,166,85,2,0 // vmovapd 0x255a6(%rip),%ymm10 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x858>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,176,88,2,0 // vbroadcastss 0x258b0(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,100,80,2,0 // vbroadcastss 0x25064(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20758,21 +20536,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 1564e <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 15212 <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15784 <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15348 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 1564e <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 1564e <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20786,9 +20564,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 1564e <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 15785 <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 15349 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20821,12 +20599,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15847 <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1540b <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,18,93,2,0 // vmovapd 0x25d12(%rip),%ymm10 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x8f0>
+ .byte 197,125,40,21,78,84,2,0 // vmovapd 0x2544e(%rip),%ymm10 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x878>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,56,87,2,0 // vbroadcastss 0x25738(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,236,78,2,0 // vbroadcastss 0x24eec(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -20853,21 +20631,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 157c6 <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 1538a <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 158fc <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 154c0 <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 157c6 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 157c6 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -20881,9 +20659,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 157c6 <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 158fd <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 154c1 <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20961,10 +20739,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,228,90,2,0 // vmovaps 0x25ae4(%rip),%ymm10 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x910>
+ .byte 197,124,40,21,32,82,2,0 // vmovaps 0x25220(%rip),%ymm10 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x898>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,234,84,2,0 // vbroadcastss 0x254ea(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,158,76,2,0 // vbroadcastss 0x24c9e(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -21003,9 +20781,9 @@ _sk_store_8888_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,225,83,2,0 // vbroadcastss 0x253e1(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,149,75,2,0 // vbroadcastss 0x24b95(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,255,83,2,0 // vbroadcastss 0x253ff(%rip),%ymm11 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,179,75,2,0 // vbroadcastss 0x24bb3(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -21036,7 +20814,7 @@ _sk_store_8888_avx:
.byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 15b76 <_sk_store_8888_avx+0xe0>
+ .byte 117,10 // jne 1573a <_sk_store_8888_avx+0xe0>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21044,17 +20822,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 15b72 <_sk_store_8888_avx+0xdc>
+ .byte 119,236 // ja 15736 <_sk_store_8888_avx+0xdc>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 15be4 <_sk_store_8888_avx+0x14e>
+ .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 157a8 <_sk_store_8888_avx+0x14e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 15b72 <_sk_store_8888_avx+0xdc>
+ .byte 235,208 // jmp 15736 <_sk_store_8888_avx+0xdc>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 15b72 <_sk_store_8888_avx+0xdc>
+ .byte 235,192 // jmp 15736 <_sk_store_8888_avx+0xdc>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -21062,7 +20840,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 15b72 <_sk_store_8888_avx+0xdc>
+ .byte 235,143 // jmp 15736 <_sk_store_8888_avx+0xdc>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -21097,12 +20875,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15ca7 <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1586b <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,242,88,2,0 // vmovapd 0x258f2(%rip),%ymm10 # 3b520 <_sk_srcover_bgra_8888_sse2_lowp+0x930>
+ .byte 197,125,40,21,46,80,2,0 // vmovapd 0x2502e(%rip),%ymm10 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x8b8>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,216,82,2,0 // vbroadcastss 0x252d8(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,140,74,2,0 // vbroadcastss 0x24a8c(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -21129,21 +20907,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 15c26 <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 157ea <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15d5c <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15920 <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 15c26 <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 15c26 <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -21157,9 +20935,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 15c26 <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 15d5d <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 15921 <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -21192,12 +20970,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15e1f <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 159e3 <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,154,87,2,0 // vmovapd 0x2579a(%rip),%ymm10 # 3b540 <_sk_srcover_bgra_8888_sse2_lowp+0x950>
+ .byte 197,125,40,21,214,78,2,0 // vmovapd 0x24ed6(%rip),%ymm10 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x8d8>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,96,81,2,0 // vbroadcastss 0x25160(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,20,73,2,0 // vbroadcastss 0x24914(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21224,21 +21002,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 15d9e <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15ed4 <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15a98 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 15d9e <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 15d9e <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -21252,9 +21030,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 15d9e <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 15ed5 <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 15a99 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -21332,10 +21110,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,108,85,2,0 // vmovaps 0x2556c(%rip),%ymm9 # 3b560 <_sk_srcover_bgra_8888_sse2_lowp+0x970>
+ .byte 197,124,40,13,168,76,2,0 // vmovaps 0x24ca8(%rip),%ymm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x8f8>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,18,79,2,0 // vbroadcastss 0x24f12(%rip),%ymm10 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,21,198,70,2,0 // vbroadcastss 0x246c6(%rip),%ymm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -21374,9 +21152,9 @@ _sk_store_bgra_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,9,78,2,0 // vbroadcastss 0x24e09(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,189,69,2,0 // vbroadcastss 0x245bd(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,39,78,2,0 // vbroadcastss 0x24e27(%rip),%ymm11 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,219,69,2,0 // vbroadcastss 0x245db(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -21407,7 +21185,7 @@ _sk_store_bgra_avx:
.byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1614e <_sk_store_bgra_avx+0xe0>
+ .byte 117,10 // jne 15d12 <_sk_store_bgra_avx+0xe0>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21415,17 +21193,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 1614a <_sk_store_bgra_avx+0xdc>
+ .byte 119,236 // ja 15d0e <_sk_store_bgra_avx+0xdc>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 161bc <_sk_store_bgra_avx+0x14e>
+ .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 15d80 <_sk_store_bgra_avx+0x14e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 1614a <_sk_store_bgra_avx+0xdc>
+ .byte 235,208 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 1614a <_sk_store_bgra_avx+0xdc>
+ .byte 235,192 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -21433,7 +21211,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 1614a <_sk_store_bgra_avx+0xdc>
+ .byte 235,143 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -21473,7 +21251,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 16433 <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 15ff7 <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -21490,14 +21268,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,91,94,2,0 // vmovddup 0x25e5b(%rip),%xmm10 # 3c0c8 <_sk_srcover_bgra_8888_sse2_lowp+0x14d8>
+ .byte 197,123,18,21,87,85,2,0 // vmovddup 0x25557(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,177,77,2,0 // vbroadcastss 0x24db1(%rip),%xmm11 # 3b02c <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,98,121,24,29,97,69,2,0 // vbroadcastss 0x24561(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,58,94,2,0 // vmovddup 0x25e3a(%rip),%xmm12 # 3c0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x14e0>
+ .byte 197,123,18,37,54,85,2,0 // vmovddup 0x25536(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -21506,7 +21284,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,107,77,2,0 // vbroadcastss 0x24d6b(%rip),%xmm3 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,226,121,24,29,27,69,2,0 // vbroadcastss 0x2451b(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21585,29 +21363,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16499 <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 1605d <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16499 <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 1605d <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 164a6 <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 1606a <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 164a6 <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 1606a <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 1622f <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 15df3 <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 1622f <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 15df3 <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 1622f <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 1622f <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 1622f <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -21626,7 +21404,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 1670a <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 162ce <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -21643,14 +21421,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,132,91,2,0 // vmovddup 0x25b84(%rip),%xmm10 # 3c0c8 <_sk_srcover_bgra_8888_sse2_lowp+0x14d8>
+ .byte 197,123,18,21,128,82,2,0 // vmovddup 0x25280(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,218,74,2,0 // vbroadcastss 0x24ada(%rip),%xmm11 # 3b02c <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,98,121,24,29,138,66,2,0 // vbroadcastss 0x2428a(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,99,91,2,0 // vmovddup 0x25b63(%rip),%xmm12 # 3c0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x14e0>
+ .byte 197,123,18,37,95,82,2,0 // vmovddup 0x2525f(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -21659,7 +21437,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,148,74,2,0 // vbroadcastss 0x24a94(%rip),%xmm7 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,226,121,24,61,68,66,2,0 // vbroadcastss 0x24244(%rip),%xmm7 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -21738,29 +21516,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16770 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 16334 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16770 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 16334 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 1677d <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 16341 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 1677d <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 16341 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 16506 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 160ca <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 16506 <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 160ca <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 16506 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 16506 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 16506 <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -21839,14 +21617,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,234,87,2,0 // vmovddup 0x257ea(%rip),%xmm11 # 3c0c8 <_sk_srcover_bgra_8888_sse2_lowp+0x14d8>
+ .byte 197,123,18,29,230,78,2,0 // vmovddup 0x24ee6(%rip),%xmm11 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,64,71,2,0 // vbroadcastss 0x24740(%rip),%xmm12 # 3b02c <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,98,121,24,37,240,62,2,0 // vbroadcastss 0x23ef0(%rip),%xmm12 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,201,87,2,0 // vmovddup 0x257c9(%rip),%xmm13 # 3c0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x14e0>
+ .byte 197,123,18,45,197,78,2,0 // vmovddup 0x24ec5(%rip),%xmm13 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -21855,7 +21633,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,250,70,2,0 // vbroadcastss 0x246fa(%rip),%xmm3 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,226,121,24,29,170,62,2,0 // vbroadcastss 0x23eaa(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21945,12 +21723,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,24,69,2,0 // vbroadcastss 0x24518(%rip),%ymm8 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,204,60,2,0 // vbroadcastss 0x23ccc(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,86,69,2,0 // vbroadcastss 0x24556(%rip),%ymm10 # 3b034 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
+ .byte 196,98,125,24,21,6,61,2,0 // vbroadcastss 0x23d06(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,70,69,2,0 // vbroadcastss 0x24546(%rip),%xmm9 # 3b038 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
+ .byte 196,98,121,24,13,246,60,2,0 // vbroadcastss 0x23cf6(%rip),%xmm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -21961,7 +21739,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,9,69,2,0 // vbroadcastss 0x24509(%rip),%xmm11 # 3b03c <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
+ .byte 196,98,121,24,29,185,60,2,0 // vbroadcastss 0x23cb9(%rip),%xmm11 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -22044,7 +21822,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 16d0a <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 168ce <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -22060,22 +21838,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 16ce1 <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 16ce1 <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je 16ce1 <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 16ce1 <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je 16ce1 <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 16ce1 <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp 16ce1 <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 168a5 <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -22090,7 +21868,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 16e8b <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 16a4f <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -22112,7 +21890,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,68,65,2,0 // vbroadcastss 0x24144(%rip),%ymm9 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,248,56,2,0 // vbroadcastss 0x238f8(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -22149,29 +21927,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16ef1 <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 16ab5 <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16ef1 <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 16ab5 <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 16efe <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 16ac2 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 16efe <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 16ac2 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 16d9a <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 1695e <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 16d9a <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 1695e <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 16d9a <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 16d9a <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 16d9a <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -22188,7 +21966,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 1702f <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 16bf3 <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -22216,7 +21994,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,115,63,2,0 // vbroadcastss 0x23f73(%rip),%ymm9 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,39,55,2,0 // vbroadcastss 0x23727(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -22238,69 +22016,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,115,62,2,0 // vbroadcastss 0x23e73(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,39,54,2,0 // vbroadcastss 0x23627(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 17067 <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 16c2b <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 16f67 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 170b1 <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 16c75 <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 170cb <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 16c8f <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 16f67 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 16f67 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 1710c <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 16cd0 <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 1711d <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 16ce1 <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 16f67 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 16f67 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 17150 <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 16d14 <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 16f67 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 16f67 <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -22316,9 +22094,9 @@ _sk_store_u16_be_avx:
.byte 73,99,193 // movslq %r9d,%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,23,61,2,0 // vbroadcastss 0x23d17(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,203,52,2,0 // vbroadcastss 0x234cb(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,37,62,2,0 // vbroadcastss 0x23e25(%rip),%ymm11 # 3afbc <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,217,53,2,0 // vbroadcastss 0x235d9(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
@@ -22362,7 +22140,7 @@ _sk_store_u16_be_avx:
.byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
.byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 17296 <_sk_store_u16_be_avx+0x13d>
+ .byte 117,31 // jne 16e5a <_sk_store_u16_be_avx+0x13d>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -22371,22 +22149,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 17292 <_sk_store_u16_be_avx+0x139>
+ .byte 116,240 // je 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 17292 <_sk_store_u16_be_avx+0x139>
+ .byte 114,227 // jb 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 17292 <_sk_store_u16_be_avx+0x139>
+ .byte 116,218 // je 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 17292 <_sk_store_u16_be_avx+0x139>
+ .byte 114,205 // jb 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 17292 <_sk_store_u16_be_avx+0x139>
+ .byte 116,196 // je 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 17292 <_sk_store_u16_be_avx+0x139>
+ .byte 114,183 // jb 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 17292 <_sk_store_u16_be_avx+0x139>
+ .byte 235,174 // jmp 16e56 <_sk_store_u16_be_avx+0x139>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -22395,7 +22173,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 17455 <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 17019 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -22408,7 +22186,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 17464 <_sk_load_f32_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 17028 <_sk_load_f32_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -22471,7 +22249,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 1742f <_sk_load_f32_avx+0x14b>
+ .byte 235,203 // jmp 16ff3 <_sk_load_f32_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -22497,7 +22275,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 175f5 <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 171b9 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -22510,7 +22288,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 17604 <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 171c8 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -22573,7 +22351,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 175cf <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 17193 <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -22613,7 +22391,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 176a3 <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 17267 <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -22626,22 +22404,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1769f <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 17263 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1769f <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 17263 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 1769f <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 17263 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 1769f <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 17263 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 1769f <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 17263 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 1769f <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 17263 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 1769f <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 17263 <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -22684,7 +22462,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,41,55,2,0 // vmulss 0x23729(%rip),%xmm9,%xmm0 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,221,46,2,0 // vmulss 0x22edd(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -22711,7 +22489,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,191,54,2,0 // vmulss 0x236bf(%rip),%xmm9,%xmm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,115,46,2,0 // vmulss 0x22e73(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -22731,7 +22509,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,124,54,2,0 // vbroadcastss 0x2367c(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,48,46,2,0 // vbroadcastss 0x22e30(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22744,7 +22522,7 @@ _sk_repeat_x_1_avx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,86,54,2,0 // vbroadcastss 0x23656(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,10,46,2,0 // vbroadcastss 0x22e0a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22753,9 +22531,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,92,54,2,0 // vbroadcastss 0x2365c(%rip),%ymm8 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,16,46,2,0 // vbroadcastss 0x22e10(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,50,54,2,0 // vbroadcastss 0x23632(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,230,45,2,0 // vbroadcastss 0x22de6(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -22765,7 +22543,7 @@ _sk_mirror_x_1_avx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,2,54,2,0 // vbroadcastss 0x23602(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,182,45,2,0 // vbroadcastss 0x22db6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22774,12 +22552,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,20,55,2,0 // vbroadcastss 0x23714(%rip),%ymm3 # 3afc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,226,125,24,29,200,46,2,0 // vbroadcastss 0x22ec8(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,3,55,2,0 // vbroadcastss 0x23703(%rip),%ymm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,183,46,2,0 // vbroadcastss 0x22eb7(%rip),%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,250,54,2,0 // vbroadcastss 0x236fa(%rip),%ymm1 # 3afc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,13,174,46,2,0 // vbroadcastss 0x22eae(%rip),%ymm1 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23027,9 +22805,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 17c72 <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 17836 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 17c87 <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 1784b <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -23197,12 +22975,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 18021 <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 17be5 <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,187,46,2,0 // vbroadcastss 0x22ebb(%rip),%ymm10 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,111,38,2,0 // vbroadcastss 0x2266f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -23214,7 +22992,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 17fed <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 17bb1 <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -23396,27 +23174,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,213,43,2,0 // vbroadcastss 0x22bd5(%rip),%ymm13 # 3afcc <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,45,137,35,2,0 // vbroadcastss 0x22389(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,203,43,2,0 // vbroadcastss 0x22bcb(%rip),%ymm14 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,53,127,35,2,0 // vbroadcastss 0x2237f(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,188,43,2,0 // vbroadcastss 0x22bbc(%rip),%ymm14 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,112,35,2,0 // vbroadcastss 0x22370(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,173,43,2,0 // vbroadcastss 0x22bad(%rip),%ymm13 # 3afd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,97,35,2,0 // vbroadcastss 0x22361(%rip),%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,152,43,2,0 // vbroadcastss 0x22b98(%rip),%ymm10 # 3afdc <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,76,35,2,0 // vbroadcastss 0x2234c(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,62,42,2,0 // vbroadcastss 0x22a3e(%rip),%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,242,33,2,0 // vbroadcastss 0x221f2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,40,42,2,0 // vbroadcastss 0x22a28(%rip),%ymm10 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,220,33,2,0 // vbroadcastss 0x221dc(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -23446,7 +23224,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,14,43,2,0 // vbroadcastss 0x22b0e(%rip),%ymm11 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,194,34,2,0 // vbroadcastss 0x222c2(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -23455,7 +23233,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,226,42,2,0 // vbroadcastss 0x22ae2(%rip),%ymm9 # 3afe4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,150,34,2,0 // vbroadcastss 0x22296(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
@@ -23463,7 +23241,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,111,41,2,0 // vbroadcastss 0x2296f(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,35,33,2,0 // vbroadcastss 0x22123(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23480,7 +23258,7 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,123,42,2,0 // vbroadcastss 0x22a7b(%rip),%ymm11 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,47,34,2,0 // vbroadcastss 0x2222f(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -23489,17 +23267,17 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,79,42,2,0 // vbroadcastss 0x22a4f(%rip),%ymm9 # 3afe4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,3,34,2,0 // vbroadcastss 0x22203(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,45,42,2,0 // vbroadcastss 0x22a2d(%rip),%ymm9 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,225,33,2,0 // vbroadcastss 0x221e1(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,207,40,2,0 // vbroadcastss 0x228cf(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,131,32,2,0 // vbroadcastss 0x22083(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23515,7 +23293,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,225,41,2,0 // vbroadcastss 0x229e1(%rip),%ymm10 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,149,33,2,0 // vbroadcastss 0x22195(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -23524,7 +23302,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,185,41,2,0 // vbroadcastss 0x229b9(%rip),%ymm8 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,109,33,2,0 // vbroadcastss 0x2216d(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23568,7 +23346,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,243,39,2,0 // vbroadcastss 0x227f3(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,167,31,2,0 // vbroadcastss 0x21fa7(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -23605,9 +23383,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,197,40,2,0 // vbroadcastss 0x228c5(%rip),%ymm0 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,121,32,2,0 // vbroadcastss 0x22079(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,108,39,2,0 // vbroadcastss 0x2276c(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,32,31,2,0 // vbroadcastss 0x21f20(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23618,7 +23396,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,73,39,2,0 // vbroadcastss 0x22749(%rip),%ymm0 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,253,30,2,0 // vbroadcastss 0x21efd(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23630,9 +23408,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,118,40,2,0 // vbroadcastss 0x22876(%rip),%ymm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,42,32,2,0 // vbroadcastss 0x2202a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,28,39,2,0 // vbroadcastss 0x2271c(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23643,7 +23421,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,249,38,2,0 // vbroadcastss 0x226f9(%rip),%ymm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,173,30,2,0 // vbroadcastss 0x21ead(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23655,14 +23433,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,41,40,2,0 // vbroadcastss 0x22829(%rip),%ymm0 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,221,31,2,0 // vbroadcastss 0x21fdd(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,204,38,2,0 // vbroadcastss 0x226cc(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,128,30,2,0 // vbroadcastss 0x21e80(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,10,40,2,0 // vbroadcastss 0x2280a(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,190,31,2,0 // vbroadcastss 0x21fbe(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,28,39,2,0 // vbroadcastss 0x2271c(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23674,19 +23452,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,211,39,2,0 // vbroadcastss 0x227d3(%rip),%ymm0 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,135,31,2,0 // vbroadcastss 0x21f87(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,122,38,2,0 // vbroadcastss 0x2267a(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,46,30,2,0 // vbroadcastss 0x21e2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,193,39,2,0 // vbroadcastss 0x227c1(%rip),%ymm9 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,117,31,2,0 // vbroadcastss 0x21f75(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,183,39,2,0 // vbroadcastss 0x227b7(%rip),%ymm10 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,107,31,2,0 // vbroadcastss 0x21f6b(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,68,38,2,0 // vbroadcastss 0x22644(%rip),%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,248,29,2,0 // vbroadcastss 0x21df8(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,149,39,2,0 // vbroadcastss 0x22795(%rip),%ymm9 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,73,31,2,0 // vbroadcastss 0x21f49(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23697,17 +23475,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,21,38,2,0 // vbroadcastss 0x22615(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,201,29,2,0 // vbroadcastss 0x21dc9(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,92,39,2,0 // vbroadcastss 0x2275c(%rip),%ymm10 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,16,31,2,0 // vbroadcastss 0x21f10(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,82,39,2,0 // vbroadcastss 0x22752(%rip),%ymm11 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,6,31,2,0 // vbroadcastss 0x21f06(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,57,39,2,0 // vbroadcastss 0x22739(%rip),%ymm9 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,237,30,2,0 // vbroadcastss 0x21eed(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23718,13 +23496,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,25,39,2,0 // vbroadcastss 0x22719(%rip),%ymm0 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,205,30,2,0 // vbroadcastss 0x21ecd(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,247,38,2,0 // vbroadcastss 0x226f7(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,171,30,2,0 // vbroadcastss 0x21eab(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,9,38,2,0 // vbroadcastss 0x22609(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,189,29,2,0 // vbroadcastss 0x21dbd(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23736,14 +23514,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,196,38,2,0 // vbroadcastss 0x226c4(%rip),%ymm1 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,120,30,2,0 // vbroadcastss 0x21e78(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,102,37,2,0 // vbroadcastss 0x22566(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,26,29,2,0 // vbroadcastss 0x21d1a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,164,38,2,0 // vbroadcastss 0x226a4(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,88,30,2,0 // vbroadcastss 0x21e58(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,182,37,2,0 // vbroadcastss 0x225b6(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,106,29,2,0 // vbroadcastss 0x21d6a(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23755,19 +23533,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,109,38,2,0 // vbroadcastss 0x2266d(%rip),%ymm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,33,30,2,0 // vbroadcastss 0x21e21(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,19,37,2,0 // vbroadcastss 0x22513(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,199,28,2,0 // vbroadcastss 0x21cc7(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,90,38,2,0 // vbroadcastss 0x2265a(%rip),%ymm9 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,14,30,2,0 // vbroadcastss 0x21e0e(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,80,38,2,0 // vbroadcastss 0x22650(%rip),%ymm10 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,4,30,2,0 // vbroadcastss 0x21e04(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,221,36,2,0 // vbroadcastss 0x224dd(%rip),%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,145,28,2,0 // vbroadcastss 0x21c91(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,46,38,2,0 // vbroadcastss 0x2262e(%rip),%ymm9 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,226,29,2,0 // vbroadcastss 0x21de2(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23778,17 +23556,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,174,36,2,0 // vbroadcastss 0x224ae(%rip),%ymm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,98,28,2,0 // vbroadcastss 0x21c62(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,244,37,2,0 // vbroadcastss 0x225f4(%rip),%ymm10 # 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,168,29,2,0 // vbroadcastss 0x21da8(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,234,37,2,0 // vbroadcastss 0x225ea(%rip),%ymm11 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,158,29,2,0 // vbroadcastss 0x21d9e(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,209,37,2,0 // vbroadcastss 0x225d1(%rip),%ymm9 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,133,29,2,0 // vbroadcastss 0x21d85(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23799,13 +23577,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,177,37,2,0 // vbroadcastss 0x225b1(%rip),%ymm1 # 3affc <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,101,29,2,0 // vbroadcastss 0x21d65(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,142,37,2,0 // vbroadcastss 0x2258e(%rip),%ymm10 # 3aff4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,66,29,2,0 // vbroadcastss 0x21d42(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,160,36,2,0 // vbroadcastss 0x224a0(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,84,28,2,0 // vbroadcastss 0x21c54(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23953,7 +23731,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,38,35,2,0 // vbroadcastss 0x22326(%rip),%xmm4 # 3b008 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,226,121,24,37,218,26,2,0 // vbroadcastss 0x21ada(%rip),%xmm4 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -24007,7 +23785,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,159,32,2,0 // vbroadcastss 0x2209f(%rip),%xmm10 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,83,24,2,0 // vbroadcastss 0x21853(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -24035,7 +23813,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,99,33,2,0 // vbroadcastss 0x22163(%rip),%ymm7 # 3b004 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,61,23,25,2,0 // vbroadcastss 0x21917(%rip),%ymm7 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -24778,7 +24556,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,39,18,2,0 // vbroadcastss 0x21227(%rip),%xmm9 # 3b008 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,121,24,13,219,9,2,0 // vbroadcastss 0x209db(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -24835,7 +24613,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,144,15,2,0 // vbroadcastss 0x20f90(%rip),%xmm10 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,68,7,2,0 // vbroadcastss 0x20744(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -24863,7 +24641,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,84,16,2,0 // vbroadcastss 0x21054(%rip),%ymm12 # 3b004 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,37,8,8,2,0 // vbroadcastss 0x20808(%rip),%ymm12 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -26261,7 +26039,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,177,241,1,0 // vbroadcastss 0x1f1b1(%rip),%ymm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,101,233,1,0 // vbroadcastss 0x1e965(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -26277,18 +26055,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,224,242,1,0 // vbroadcastss 0x1f2e0(%rip),%ymm0 # 3b00c <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,148,234,1,0 // vbroadcastss 0x1ea94(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,215,242,1,0 // vbroadcastss 0x1f2d7(%rip),%ymm1 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,139,234,1,0 // vbroadcastss 0x1ea8b(%rip),%ymm1 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,202,242,1,0 // vbroadcastss 0x1f2ca(%rip),%ymm1 # 3b014 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,13,126,234,1,0 // vbroadcastss 0x1ea7e(%rip),%ymm1 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,189,242,1,0 // vbroadcastss 0x1f2bd(%rip),%ymm1 # 3b018 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,113,234,1,0 // vbroadcastss 0x1ea71(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,176,242,1,0 // vbroadcastss 0x1f2b0(%rip),%ymm1 # 3b01c <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,13,100,234,1,0 // vbroadcastss 0x1ea64(%rip),%ymm1 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -26296,182 +26074,6 @@ _sk_gauss_a_to_rgba_avx:
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
.byte 255,224 // jmpq *%rax
-HIDDEN _sk_bilerp_clamp_8888_avx
-.globl _sk_bilerp_clamp_8888_avx
-FUNCTION(_sk_bilerp_clamp_8888_avx)
-_sk_bilerp_clamp_8888_avx:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp
- .byte 72,129,236,192,1,0,0 // sub $0x1c0,%rsp
- .byte 197,252,41,188,36,128,0,0,0 // vmovaps %ymm7,0x80(%rsp)
- .byte 197,252,41,116,36,96 // vmovaps %ymm6,0x60(%rsp)
- .byte 197,252,41,108,36,64 // vmovaps %ymm5,0x40(%rsp)
- .byte 197,252,41,100,36,32 // vmovaps %ymm4,0x20(%rsp)
- .byte 72,137,76,36,24 // mov %rcx,0x18(%rsp)
- .byte 72,137,84,36,16 // mov %rdx,0x10(%rsp)
- .byte 72,137,250 // mov %rdi,%rdx
- .byte 76,141,68,36,8 // lea 0x8(%rsp),%r8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,37,204,240,1,0 // vbroadcastss 0x1f0cc(%rip),%ymm4 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,41,132,36,128,1,0,0 // vmovaps %ymm0,0x180(%rsp)
- .byte 197,252,88,212 // vaddps %ymm4,%ymm0,%ymm2
- .byte 196,227,125,8,218,1 // vroundps $0x1,%ymm2,%ymm3
- .byte 197,236,92,195 // vsubps %ymm3,%ymm2,%ymm0
- .byte 197,252,41,140,36,32,1,0,0 // vmovaps %ymm1,0x120(%rsp)
- .byte 197,244,88,204 // vaddps %ymm4,%ymm1,%ymm1
- .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
- .byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
- .byte 73,185,0,0,0,191,0,0,0,63 // movabs $0x3f000000bf000000,%r9
- .byte 77,137,8 // mov %r9,(%r8)
- .byte 72,141,124,36,16 // lea 0x10(%rsp),%rdi
- .byte 196,226,125,24,13,135,240,1,0 // vbroadcastss 0x1f087(%rip),%ymm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,41,132,36,96,1,0,0 // vmovaps %ymm0,0x160(%rsp)
- .byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
- .byte 197,252,41,132,36,64,1,0,0 // vmovaps %ymm0,0x140(%rsp)
- .byte 197,252,41,148,36,0,1,0,0 // vmovaps %ymm2,0x100(%rsp)
- .byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 197,252,41,132,36,160,0,0,0 // vmovaps %ymm0,0xa0(%rsp)
- .byte 196,226,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm1
- .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2
- .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,99,117,24,242,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm14
- .byte 196,226,125,24,72,16 // vbroadcastss 0x10(%rax),%ymm1
- .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm0
- .byte 197,252,41,132,36,224,0,0,0 // vmovaps %ymm0,0xe0(%rsp)
- .byte 76,139,16 // mov (%rax),%r10
- .byte 196,226,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm0
- .byte 197,252,41,132,36,192,0,0,0 // vmovaps %ymm0,0xc0(%rsp)
- .byte 197,250,16,13,76,241,1,0 // vmovss 0x1f14c(%rip),%xmm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 197,124,40,21,216,246,1,0 // vmovaps 0x1f6d8(%rip),%ymm10 # 3b580 <_sk_srcover_bgra_8888_sse2_lowp+0x990>
- .byte 196,226,125,24,37,103,240,1,0 // vbroadcastss 0x1f067(%rip),%ymm4 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 235,5 // jmp 1beca <_sk_bilerp_clamp_8888_avx+0x14a>
- .byte 196,193,122,16,8 // vmovss (%r8),%xmm1
- .byte 196,227,121,4,241,0 // vpermilps $0x0,%xmm1,%xmm6
- .byte 196,227,77,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm6,%ymm6
- .byte 197,204,88,180,36,32,1,0,0 // vaddps 0x120(%rsp),%ymm6,%ymm6
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,252,95,246 // vmaxps %ymm6,%ymm0,%ymm6
- .byte 197,248,46,13,57,241,1,0 // vucomiss 0x1f139(%rip),%xmm1 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 197,124,40,156,36,0,1,0,0 // vmovaps 0x100(%rsp),%ymm11
- .byte 119,9 // ja 1bf03 <_sk_bilerp_clamp_8888_avx+0x183>
- .byte 197,124,40,156,36,160,0,0,0 // vmovaps 0xa0(%rsp),%ymm11
- .byte 197,204,93,140,36,224,0,0,0 // vminps 0xe0(%rsp),%ymm6,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,227,125,25,206,1 // vextractf128 $0x1,%ymm1,%xmm6
- .byte 197,253,111,132,36,192,0,0,0 // vmovdqa 0xc0(%rsp),%ymm0
- .byte 196,227,125,25,199,1 // vextractf128 $0x1,%ymm0,%xmm7
- .byte 196,226,65,64,246 // vpmulld %xmm6,%xmm7,%xmm6
- .byte 196,226,121,64,201 // vpmulld %xmm1,%xmm0,%xmm1
- .byte 196,227,117,24,206,1 // vinsertf128 $0x1,%xmm6,%ymm1,%ymm1
- .byte 69,49,219 // xor %r11d,%r11d
- .byte 196,33,122,16,124,28,8 // vmovss 0x8(%rsp,%r11,1),%xmm15
- .byte 196,195,121,4,247,0 // vpermilps $0x0,%xmm15,%xmm6
- .byte 196,227,77,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm6,%ymm6
- .byte 197,204,88,180,36,128,1,0,0 // vaddps 0x180(%rsp),%ymm6,%ymm6
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,252,95,246 // vmaxps %ymm6,%ymm0,%ymm6
- .byte 196,193,76,93,246 // vminps %ymm14,%ymm6,%ymm6
- .byte 197,254,91,246 // vcvttps2dq %ymm6,%ymm6
- .byte 196,227,125,25,247,1 // vextractf128 $0x1,%ymm6,%xmm7
- .byte 196,227,125,25,205,1 // vextractf128 $0x1,%ymm1,%xmm5
- .byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
- .byte 196,227,249,22,232,1 // vpextrq $0x1,%xmm5,%rax
- .byte 65,137,198 // mov %eax,%r14d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,225,249,126,235 // vmovq %xmm5,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 197,241,254,238 // vpaddd %xmm6,%xmm1,%xmm5
- .byte 196,195,249,22,236,1 // vpextrq $0x1,%xmm5,%r12
- .byte 69,137,229 // mov %r12d,%r13d
- .byte 73,193,236,32 // shr $0x20,%r12
- .byte 196,193,249,126,233 // vmovq %xmm5,%r9
- .byte 68,137,201 // mov %r9d,%ecx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,193,121,110,44,138 // vmovd (%r10,%rcx,4),%xmm5
- .byte 196,131,81,34,44,138,1 // vpinsrd $0x1,(%r10,%r9,4),%xmm5,%xmm5
- .byte 196,131,81,34,44,170,2 // vpinsrd $0x2,(%r10,%r13,4),%xmm5,%xmm5
- .byte 196,131,81,34,44,162,3 // vpinsrd $0x3,(%r10,%r12,4),%xmm5,%xmm5
- .byte 196,129,121,110,52,186 // vmovd (%r10,%r15,4),%xmm6
- .byte 196,195,73,34,52,154,1 // vpinsrd $0x1,(%r10,%rbx,4),%xmm6,%xmm6
- .byte 196,131,73,34,52,178,2 // vpinsrd $0x2,(%r10,%r14,4),%xmm6,%xmm6
- .byte 196,195,73,34,52,130,3 // vpinsrd $0x3,(%r10,%rax,4),%xmm6,%xmm6
- .byte 196,227,85,24,254,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm7
- .byte 196,193,68,84,250 // vandps %ymm10,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 197,68,89,236 // vmulps %ymm4,%ymm7,%ymm13
- .byte 197,193,114,213,8 // vpsrld $0x8,%xmm5,%xmm7
- .byte 197,249,114,214,8 // vpsrld $0x8,%xmm6,%xmm0
- .byte 196,227,69,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm7,%ymm0
- .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,124,89,228 // vmulps %ymm4,%ymm0,%ymm12
- .byte 197,249,114,213,16 // vpsrld $0x10,%xmm5,%xmm0
- .byte 197,193,114,214,16 // vpsrld $0x10,%xmm6,%xmm7
- .byte 196,227,125,24,199,1 // vinsertf128 $0x1,%xmm7,%ymm0,%ymm0
- .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,89,252 // vmulps %ymm4,%ymm0,%ymm7
- .byte 197,249,114,213,24 // vpsrld $0x18,%xmm5,%xmm0
- .byte 197,209,114,214,24 // vpsrld $0x18,%xmm6,%xmm5
- .byte 196,227,125,24,197,1 // vinsertf128 $0x1,%xmm5,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,89,244 // vmulps %ymm4,%ymm0,%ymm6
- .byte 197,120,46,61,218,239,1,0 // vucomiss 0x1efda(%rip),%xmm15 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 197,124,40,188,36,96,1,0,0 // vmovaps 0x160(%rsp),%ymm15
- .byte 119,9 // ja 1c062 <_sk_bilerp_clamp_8888_avx+0x2e2>
- .byte 197,124,40,188,36,64,1,0,0 // vmovaps 0x140(%rsp),%ymm15
- .byte 196,193,36,89,199 // vmulps %ymm15,%ymm11,%ymm0
- .byte 196,193,124,89,237 // vmulps %ymm13,%ymm0,%ymm5
- .byte 197,52,88,205 // vaddps %ymm5,%ymm9,%ymm9
- .byte 196,193,124,89,236 // vmulps %ymm12,%ymm0,%ymm5
- .byte 197,60,88,197 // vaddps %ymm5,%ymm8,%ymm8
- .byte 197,252,89,239 // vmulps %ymm7,%ymm0,%ymm5
- .byte 197,236,88,213 // vaddps %ymm5,%ymm2,%ymm2
- .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0
- .byte 197,228,88,216 // vaddps %ymm0,%ymm3,%ymm3
- .byte 73,131,195,4 // add $0x4,%r11
- .byte 73,131,251,8 // cmp $0x8,%r11
- .byte 15,133,161,254,255,255 // jne 1bf38 <_sk_bilerp_clamp_8888_avx+0x1b8>
- .byte 73,131,192,4 // add $0x4,%r8
- .byte 73,57,248 // cmp %rdi,%r8
- .byte 15,133,33,254,255,255 // jne 1bec5 <_sk_bilerp_clamp_8888_avx+0x145>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,215 // mov %rdx,%rdi
- .byte 72,139,84,36,16 // mov 0x10(%rsp),%rdx
- .byte 72,139,76,36,24 // mov 0x18(%rsp),%rcx
- .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 197,252,40,100,36,32 // vmovaps 0x20(%rsp),%ymm4
- .byte 197,252,40,108,36,64 // vmovaps 0x40(%rsp),%ymm5
- .byte 197,252,40,116,36,96 // vmovaps 0x60(%rsp),%ymm6
- .byte 197,252,40,188,36,128,0,0,0 // vmovaps 0x80(%rsp),%ymm7
- .byte 255,208 // callq *%rax
- .byte 72,141,101,216 // lea -0x28(%rbp),%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
-
HIDDEN _sk_start_pipeline_sse41
.globl _sk_start_pipeline_sse41
FUNCTION(_sk_start_pipeline_sse41)
@@ -26493,13 +26095,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1c1a0 <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1b9fa <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1c16e <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1b9c8 <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -26518,10 +26120,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1c137 <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1b991 <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1c197 <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1b9f1 <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -26535,7 +26137,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1c129 <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1b983 <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -26564,9 +26166,9 @@ _sk_seed_shader_sse41:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,169,246,1,0 // addps 0x1f6a9(%rip),%xmm1 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,13,15,241,1,0 // addps 0x1f10f(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,176,246,1,0 // movaps 0x1f6b0(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,22,241,1,0 // movaps 0x1f116(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -26581,18 +26183,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,89,246,1,0 // paddd 0x1f659(%rip),%xmm8 # 3b860 <_sk_srcover_bgra_8888_sse2_lowp+0xc70>
+ .byte 102,68,15,254,5,191,240,1,0 // paddd 0x1f0bf(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,128,246,1,0 // movdqa 0x1f680(%rip),%xmm10 # 3b8a0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 102,68,15,111,21,230,240,1,0 // movdqa 0x1f0e6(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,108,246,1,0 // movdqa 0x1f66c(%rip),%xmm12 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc0>
- .byte 102,68,15,111,45,115,246,1,0 // movdqa 0x1f673(%rip),%xmm13 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,37,210,240,1,0 // movdqa 0x1f0d2(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
+ .byte 102,68,15,111,45,217,240,1,0 // movdqa 0x1f0d9(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -26608,8 +26210,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,46,246,1,0 // mulps 0x1f62e(%rip),%xmm8 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
- .byte 68,15,88,5,54,246,1,0 // addps 0x1f636(%rip),%xmm8 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf0>
+ .byte 68,15,89,5,148,240,1,0 // mulps 0x1f094(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 68,15,88,5,156,240,1,0 // addps 0x1f09c(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -26651,7 +26253,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,108,245,1,0 // movaps 0x1f56c(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,210,239,1,0 // movaps 0x1efd2(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -26662,7 +26264,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,88,245,1,0 // movaps 0x1f558(%rip),%xmm0 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,5,190,239,1,0 // movaps 0x1efbe(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -26708,7 +26310,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,8,245,1,0 // movaps 0x1f508(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,110,239,1,0 // movaps 0x1ef6e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26733,7 +26335,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,187,244,1,0 // movaps 0x1f4bb(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,33,239,1,0 // movaps 0x1ef21(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -26780,7 +26382,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,79,244,1,0 // movaps 0x1f44f(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,181,238,1,0 // movaps 0x1eeb5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -26793,7 +26395,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,47,244,1,0 // movaps 0x1f42f(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,149,238,1,0 // movaps 0x1ee95(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -26810,7 +26412,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,2,244,1,0 // movaps 0x1f402(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,104,238,1,0 // movaps 0x1ee68(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26830,7 +26432,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,198,243,1,0 // movaps 0x1f3c6(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,44,238,1,0 // movaps 0x1ee2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -26858,7 +26460,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,138,243,1,0 // movaps 0x1f38a(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,240,237,1,0 // movaps 0x1edf0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -26896,7 +26498,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,11,243,1,0 // movaps 0x1f30b(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,113,237,1,0 // movaps 0x1ed71(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -26938,7 +26540,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,151,242,1,0 // movaps 0x1f297(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,253,236,1,0 // movaps 0x1ecfd(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -26986,7 +26588,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,242,241,1,0 // movaps 0x1f1f2(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,88,236,1,0 // movaps 0x1ec58(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27020,7 +26622,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,135,241,1,0 // movaps 0x1f187(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,237,235,1,0 // movaps 0x1ebed(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27057,7 +26659,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,17,241,1,0 // movaps 0x1f111(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,119,235,1,0 // movaps 0x1eb77(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27085,7 +26687,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,193,240,1,0 // movaps 0x1f0c1(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,39,235,1,0 // movaps 0x1eb27(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27097,7 +26699,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,168,240,1,0 // movaps 0x1f0a8(%rip),%xmm11 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,29,14,235,1,0 // movaps 0x1eb0e(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -27181,7 +26783,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,114,239,1,0 // movaps 0x1ef72(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,216,233,1,0 // movaps 0x1e9d8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -27263,7 +26865,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,61,238,1,0 // movaps 0x1ee3d(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,163,232,1,0 // movaps 0x1e8a3(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -27346,7 +26948,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,18,237,1,0 // movaps 0x1ed12(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,120,231,1,0 // movaps 0x1e778(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -27431,7 +27033,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,217,235,1,0 // movaps 0x1ebd9(%rip),%xmm1 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,13,63,230,1,0 // movaps 0x1e63f(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -27444,10 +27046,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,7,236,1,0 // movaps 0x1ec07(%rip),%xmm13 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
+ .byte 68,15,40,45,109,230,1,0 // movaps 0x1e66d(%rip),%xmm13 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,7,236,1,0 // movaps 0x1ec07(%rip),%xmm12 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
+ .byte 68,15,40,37,109,230,1,0 // movaps 0x1e66d(%rip),%xmm12 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -27633,12 +27235,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,114,233,1,0 // movaps 0x1e972(%rip),%xmm0 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 15,40,5,216,227,1,0 // movaps 0x1e3d8(%rip),%xmm0 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,119,233,1,0 // movaps 0x1e977(%rip),%xmm2 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 15,40,21,221,227,1,0 // movaps 0x1e3dd(%rip),%xmm2 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,120,233,1,0 // movaps 0x1e978(%rip),%xmm14 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,53,222,227,1,0 // movaps 0x1e3de(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -27721,7 +27323,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,140,231,1,0 // movaps 0x1e78c(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,242,225,1,0 // movaps 0x1e1f2(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -27815,14 +27417,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,182,230,1,0 // movaps 0x1e6b6(%rip),%xmm2 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 15,40,21,28,225,1,0 // movaps 0x1e11c(%rip),%xmm2 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,185,230,1,0 // movaps 0x1e6b9(%rip),%xmm1 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 15,40,13,31,225,1,0 // movaps 0x1e11f(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,184,230,1,0 // movaps 0x1e6b8(%rip),%xmm13 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,45,30,225,1,0 // movaps 0x1e11e(%rip),%xmm13 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -27903,7 +27505,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,206,228,1,0 // movaps 0x1e4ce(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,52,223,1,0 // movaps 0x1df34(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -27958,14 +27560,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,137,228,1,0 // movaps 0x1e489(%rip),%xmm9 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,13,239,222,1,0 // movaps 0x1deef(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,137,228,1,0 // movaps 0x1e489(%rip),%xmm10 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 68,15,40,21,239,222,1,0 // movaps 0x1deef(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,134,228,1,0 // movaps 0x1e486(%rip),%xmm11 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,29,236,222,1,0 // movaps 0x1deec(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -28050,7 +27652,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,146,226,1,0 // movaps 0x1e292(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,248,220,1,0 // movaps 0x1dcf8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -28102,13 +27704,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,90,226,1,0 // movaps 0x1e25a(%rip),%xmm8 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,5,192,220,1,0 // movaps 0x1dcc0(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,94,226,1,0 // movaps 0x1e25e(%rip),%xmm10 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 68,15,40,21,196,220,1,0 // movaps 0x1dcc4(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,92,226,1,0 // movaps 0x1e25c(%rip),%xmm12 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,37,194,220,1,0 // movaps 0x1dcc2(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -28193,7 +27795,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,98,224,1,0 // movaps 0x1e062(%rip),%xmm0 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,5,200,218,1,0 // movaps 0x1dac8(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -28239,24 +27841,24 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1d9c0 <_sk_srcover_rgba_8888_sse41+0x125>
+ .byte 15,133,0,1,0,0 // jne 1d21a <_sk_srcover_rgba_8888_sse41+0x125>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,111,224,1,0 // movdqa 0x1e06f(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,37,213,218,1,0 // movdqa 0x1dad5(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,56,0,45,107,224,1,0 // pshufb 0x1e06b(%rip),%xmm5 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,45,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,56,0,53,107,224,1,0 // pshufb 0x1e06b(%rip),%xmm6 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,53,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,132,223,1,0 // movaps 0x1df84(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,234,217,1,0 // movaps 0x1d9ea(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,88,224,1,0 // movaps 0x1e058(%rip),%xmm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,37,190,218,1,0 // movaps 0x1dabe(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -28293,7 +27895,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,84 // jne 1d9fe <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 117,84 // jne 1d258 <_sk_srcover_rgba_8888_sse41+0x163>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -28303,32 +27905,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1da28 <_sk_srcover_rgba_8888_sse41+0x18d>
+ .byte 116,91 // je 1d282 <_sk_srcover_rgba_8888_sse41+0x18d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1d9ed <_sk_srcover_rgba_8888_sse41+0x152>
+ .byte 116,22 // je 1d247 <_sk_srcover_rgba_8888_sse41+0x152>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,229,254,255,255 // jne 1d8c6 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 15,133,229,254,255,255 // jne 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,200,254,255,255 // jmpq 1d8c6 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 233,200,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1da33 <_sk_srcover_rgba_8888_sse41+0x198>
+ .byte 116,40 // je 1d28d <_sk_srcover_rgba_8888_sse41+0x198>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1da20 <_sk_srcover_rgba_8888_sse41+0x185>
+ .byte 116,15 // je 1d27a <_sk_srcover_rgba_8888_sse41+0x185>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 1d9b0 <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 117,153 // jne 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
.byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,136 // jmp 1d9b0 <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 235,136 // jmp 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,147,254,255,255 // jmpq 1d8c6 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 233,147,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,114,255,255,255 // jmpq 1d9b0 <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 233,114,255,255,255 // jmpq 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
HIDDEN _sk_srcover_bgra_8888_sse41
.globl _sk_srcover_bgra_8888_sse41
@@ -28343,24 +27945,24 @@ _sk_srcover_bgra_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1db63 <_sk_srcover_bgra_8888_sse41+0x125>
+ .byte 15,133,0,1,0,0 // jne 1d3bd <_sk_srcover_bgra_8888_sse41+0x125>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,204,222,1,0 // movdqa 0x1decc(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,37,50,217,1,0 // movdqa 0x1d932(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,200,222,1,0 // pshufb 0x1dec8(%rip),%xmm4 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,200,222,1,0 // pshufb 0x1dec8(%rip),%xmm4 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,225,221,1,0 // movaps 0x1dde1(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,71,216,1,0 // movaps 0x1d847(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,181,222,1,0 // movaps 0x1deb5(%rip),%xmm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,37,27,217,1,0 // movaps 0x1d91b(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -28397,7 +27999,7 @@ _sk_srcover_bgra_8888_sse41:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,84 // jne 1dba1 <_sk_srcover_bgra_8888_sse41+0x163>
+ .byte 117,84 // jne 1d3fb <_sk_srcover_bgra_8888_sse41+0x163>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -28407,32 +28009,32 @@ _sk_srcover_bgra_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1dbcb <_sk_srcover_bgra_8888_sse41+0x18d>
+ .byte 116,91 // je 1d425 <_sk_srcover_bgra_8888_sse41+0x18d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1db90 <_sk_srcover_bgra_8888_sse41+0x152>
+ .byte 116,22 // je 1d3ea <_sk_srcover_bgra_8888_sse41+0x152>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,229,254,255,255 // jne 1da69 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 15,133,229,254,255,255 // jne 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,200,254,255,255 // jmpq 1da69 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 233,200,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1dbd6 <_sk_srcover_bgra_8888_sse41+0x198>
+ .byte 116,40 // je 1d430 <_sk_srcover_bgra_8888_sse41+0x198>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1dbc3 <_sk_srcover_bgra_8888_sse41+0x185>
+ .byte 116,15 // je 1d41d <_sk_srcover_bgra_8888_sse41+0x185>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 1db53 <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 117,153 // jne 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
.byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,136 // jmp 1db53 <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 235,136 // jmp 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,147,254,255,255 // jmpq 1da69 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 233,147,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,114,255,255,255 // jmpq 1db53 <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 233,114,255,255,255 // jmpq 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -28450,7 +28052,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,143,220,1,0 // movaps 0x1dc8f(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,245,214,1,0 // movaps 0x1d6f5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -28462,7 +28064,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,116,220,1,0 // minps 0x1dc74(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,93,29,218,214,1,0 // minps 0x1d6da(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -28473,7 +28075,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,96,220,1,0 // minps 0x1dc60(%rip),%xmm7 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,93,61,198,214,1,0 // minps 0x1d6c6(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -28508,7 +28110,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,28,220,1,0 // movaps 0x1dc1c(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,130,214,1,0 // movaps 0x1d682(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -28569,10 +28171,10 @@ HIDDEN _sk_unpremul_sse41
.globl _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
- .byte 68,15,40,5,170,219,1,0 // movaps 0x1dbaa(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,16,214,1,0 // movaps 0x1d610(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,137,220,1,0,1 // cmpltps 0x1dc89(%rip),%xmm9 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
+ .byte 68,15,194,13,239,214,1,0,1 // cmpltps 0x1d6ef(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -28584,20 +28186,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,125,220,1,0 // movaps 0x1dc7d(%rip),%xmm11 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0xda0>
+ .byte 68,15,40,29,227,214,1,0 // movaps 0x1d6e3(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,229,219,1,0 // movaps 0x1dbe5(%rip),%xmm12 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,37,75,214,1,0 // movaps 0x1d64b(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,101,220,1,0 // movaps 0x1dc65(%rip),%xmm13 # 3b9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,45,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,101,220,1,0 // movaps 0x1dc65(%rip),%xmm14 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,53,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,105,220,1,0 // movaps 0x1dc69(%rip),%xmm15 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
+ .byte 68,15,40,61,207,214,1,0 // movaps 0x1d6cf(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -28634,19 +28236,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,180,219,1,0 // movaps 0x1dbb4(%rip),%xmm11 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0xda0>
+ .byte 68,15,40,29,26,214,1,0 // movaps 0x1d61a(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,29,219,1,0 // movaps 0x1db1d(%rip),%xmm12 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,37,131,213,1,0 // movaps 0x1d583(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,161,219,1,0 // movaps 0x1dba1(%rip),%xmm13 # 3b9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,45,7,214,1,0 // movaps 0x1d607(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,162,219,1,0 // movaps 0x1dba2(%rip),%xmm14 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,53,8,214,1,0 // movaps 0x1d608(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,166,219,1,0 // movaps 0x1dba6(%rip),%xmm15 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
+ .byte 68,15,40,61,12,214,1,0 // movaps 0x1d60c(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -28690,22 +28292,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,26,219,1,0 // movaps 0x1db1a(%rip),%xmm11 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0xde0>
+ .byte 68,15,40,29,128,213,1,0 // movaps 0x1d580(%rip),%xmm11 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,26,219,1,0 // movaps 0x1db1a(%rip),%xmm12 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf0>
+ .byte 68,15,40,37,128,213,1,0 // movaps 0x1d580(%rip),%xmm12 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,26,219,1,0 // movaps 0x1db1a(%rip),%xmm10 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe00>
+ .byte 68,15,40,21,128,213,1,0 // movaps 0x1d580(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,26,219,1,0 // movaps 0x1db1a(%rip),%xmm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0xe10>
+ .byte 68,15,40,45,128,213,1,0 // movaps 0x1d580(%rip),%xmm13 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,30,219,1,0 // movaps 0x1db1e(%rip),%xmm14 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0xe20>
+ .byte 68,15,40,53,132,213,1,0 // movaps 0x1d584(%rip),%xmm14 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,26,219,1,0 // movaps 0x1db1a(%rip),%xmm15 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0xe30>
+ .byte 68,15,40,61,128,213,1,0 // movaps 0x1d580(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -28760,7 +28362,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,193,216,1,0 // movaps 0x1d8c1(%rip),%xmm14 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,53,39,211,1,0 // movaps 0x1d327(%rip),%xmm14 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -28769,27 +28371,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,56,218,1,0 // andps 0x1da38(%rip),%xmm15 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0xe40>
+ .byte 68,15,84,61,158,212,1,0 // andps 0x1d49e(%rip),%xmm15 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,43,218,1,0 // movaps 0x1da2b(%rip),%xmm13 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0xe50>
+ .byte 68,15,40,45,145,212,1,0 // movaps 0x1d491(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,39,218,1,0 // addps 0x1da27(%rip),%xmm8 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xe60>
+ .byte 68,15,88,5,141,212,1,0 // addps 0x1d48d(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,31,218,1,0 // mulps 0x1da1f(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
+ .byte 68,15,89,5,133,212,1,0 // mulps 0x1d485(%rip),%xmm8 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,35,216,1,0 // movaps 0x1d823(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,5,137,210,1,0 // movaps 0x1d289(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -28811,7 +28413,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,217,215,1,0 // movaps 0x1d7d9(%rip),%xmm9 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,13,63,210,1,0 // movaps 0x1d23f(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -28824,19 +28426,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,148,217,1,0 // movaps 0x1d994(%rip),%xmm14 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xe80>
+ .byte 68,15,40,53,250,211,1,0 // movaps 0x1d3fa(%rip),%xmm14 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,141,217,1,0 // movaps 0x1d98d(%rip),%xmm11 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 68,15,40,29,243,211,1,0 // movaps 0x1d3f3(%rip),%xmm11 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,38,217,1,0 // movaps 0x1d926(%rip),%xmm7 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0xe40>
+ .byte 15,40,61,140,211,1,0 // movaps 0x1d38c(%rip),%xmm7 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,55,217,1,0 // movaps 0x1d937(%rip),%xmm3 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xe60>
+ .byte 15,40,29,157,211,1,0 // movaps 0x1d39d(%rip),%xmm3 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -28846,7 +28448,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,22,217,1,0 // movaps 0x1d916(%rip),%xmm12 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
+ .byte 68,15,40,37,124,211,1,0 // movaps 0x1d37c(%rip),%xmm12 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -28880,7 +28482,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,174,216,1,0 // addps 0x1d8ae(%rip),%xmm10 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,88,21,20,211,1,0 // addps 0x1d314(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -28935,11 +28537,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1e2c9 <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1db23 <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,155,214,1,0 // pand 0x1d69b(%rip),%xmm8 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,68,15,219,5,1,209,1,0 // pand 0x1d101(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,239,215,1,0 // mulps 0x1d7ef(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,89,5,85,210,1,0 // mulps 0x1d255(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -28950,12 +28552,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 1e311 <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1db6b <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1e2f8 <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1db52 <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1e29c <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1daf6 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -28963,10 +28565,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1e29c <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1daf6 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1e29c <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1daf6 <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -28981,19 +28583,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1e3e3 <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1dc3d <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,93,215,1,0 // movdqa 0x1d75d(%rip),%xmm0 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,195,209,1,0 // movdqa 0x1d1c3(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,92,215,1,0 // mulps 0x1d75c(%rip),%xmm9 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,5,100,215,1,0 // movdqa 0x1d764(%rip),%xmm0 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 68,15,89,13,194,209,1,0 // mulps 0x1d1c2(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,202,209,1,0 // movdqa 0x1d1ca(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,99,215,1,0 // mulps 0x1d763(%rip),%xmm10 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,68,15,219,29,106,215,1,0 // pand 0x1d76a(%rip),%xmm11 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 68,15,89,21,201,209,1,0 // mulps 0x1d1c9(%rip),%xmm10 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,29,208,209,1,0 // pand 0x1d1d0(%rip),%xmm11 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,110,215,1,0 // mulps 0x1d76e(%rip),%xmm11 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 68,15,89,29,212,209,1,0 // mulps 0x1d1d4(%rip),%xmm11 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -29018,22 +28620,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1e42c <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1dc86 <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1e415 <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1dc6f <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 1e34b <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1dba5 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 1e34b <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 1e34b <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -29068,11 +28670,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1e4d3 <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1dd2d <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,165,212,1,0 // pand 0x1d4a5(%rip),%xmm8 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,68,15,219,5,11,207,1,0 // pand 0x1cf0b(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,249,213,1,0 // mulps 0x1d5f9(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,89,5,95,208,1,0 // mulps 0x1d05f(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -29090,12 +28692,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 1e51e <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1dd78 <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1e502 <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1dd5c <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1e492 <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1dcec <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -29103,10 +28705,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 1e492 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 1e492 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -29121,19 +28723,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1e5f6 <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1de50 <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,80,213,1,0 // movdqa 0x1d550(%rip),%xmm0 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,182,207,1,0 // movdqa 0x1cfb6(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,79,213,1,0 // mulps 0x1d54f(%rip),%xmm9 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,5,87,213,1,0 // movdqa 0x1d557(%rip),%xmm0 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 68,15,89,13,181,207,1,0 // mulps 0x1cfb5(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,189,207,1,0 // movdqa 0x1cfbd(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,86,213,1,0 // mulps 0x1d556(%rip),%xmm11 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,68,15,219,21,93,213,1,0 // pand 0x1d55d(%rip),%xmm10 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 68,15,89,29,188,207,1,0 // mulps 0x1cfbc(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,21,195,207,1,0 // pand 0x1cfc3(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,97,213,1,0 // mulps 0x1d561(%rip),%xmm10 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 68,15,89,21,199,207,1,0 // mulps 0x1cfc7(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -29161,22 +28763,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1e63f <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1de99 <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1e628 <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1de82 <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 1e558 <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1ddb2 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 1e558 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 1e558 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -29185,11 +28787,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1e770 <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1dfca <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,211,210,1,0 // movdqa 0x1d2d3(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,5,57,205,1,0 // movdqa 0x1cd39(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -29204,7 +28806,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,142,210,1,0 // pshufb 0x1d28e(%rip),%xmm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,13,244,204,1,0 // pshufb 0x1ccf4(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -29219,7 +28821,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,74,210,1,0 // pshufb 0x1d24a(%rip),%xmm2 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,21,176,204,1,0 // pshufb 0x1ccb0(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -29234,7 +28836,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,55,211,1,0 // mulps 0x1d337(%rip),%xmm3 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,29,157,205,1,0 // mulps 0x1cd9d(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -29242,19 +28844,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1e7b1 <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1e00b <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1e79f <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1dff9 <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1e662 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1debc <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1e662 <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1e662 <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -29264,7 +28866,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1e931 <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1e18b <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -29275,7 +28877,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,9,211,1,0 // movdqa 0x1d309(%rip),%xmm8 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,5,111,205,1,0 // movdqa 0x1cd6f(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29293,7 +28895,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,184,210,1,0 // pshufb 0x1d2b8(%rip),%xmm1 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf30>
+ .byte 102,15,56,0,13,30,205,1,0 // pshufb 0x1cd1e(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29329,23 +28931,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,6,210,1,0 // mulps 0x1d206(%rip),%xmm3 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
+ .byte 15,89,29,108,204,1,0 // mulps 0x1cc6c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1e94a <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1e1a4 <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1e7df <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1e7df <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1e039 <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1e7df <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -29355,7 +28957,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1eacc <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1e326 <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -29369,7 +28971,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,79,209,1,0 // movdqa 0x1d14f(%rip),%xmm8 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,5,181,203,1,0 // movdqa 0x1cbb5(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29387,7 +28989,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,254,208,1,0 // pshufb 0x1d0fe(%rip),%xmm1 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf30>
+ .byte 102,15,56,0,13,100,203,1,0 // pshufb 0x1cb64(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29418,7 +29020,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,201,205,1,0 // movaps 0x1cdc9(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,47,200,1,0 // movaps 0x1c82f(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -29426,21 +29028,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1eaf2 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1e34c <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1e9a3 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1eb23 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1e37d <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1e9a3 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1e9a3 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -29453,9 +29055,9 @@ _sk_byte_tables_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,74,205,1,0 // movaps 0x1cd4a(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,176,199,1,0 // movaps 0x1c7b0(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,30,206,1,0 // movaps 0x1ce1e(%rip),%xmm10 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,21,132,200,1,0 // movaps 0x1c884(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -29478,7 +29080,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,227,206,1,0 // movaps 0x1cee3(%rip),%xmm11 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,29,73,201,1,0 // movaps 0x1c949(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -29569,7 +29171,7 @@ _sk_byte_tables_rgb_sse41:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,98,203,1,0 // movaps 0x1cb62(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,200,197,1,0 // movaps 0x1c5c8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,218 // minps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
@@ -29593,7 +29195,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,3,205,1,0 // movaps 0x1cd03(%rip),%xmm11 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,29,105,199,1,0 // movaps 0x1c769(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -29658,7 +29260,7 @@ _sk_table_r_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,243,201,1,0 // minps 0x1c9f3(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,89,196,1,0 // minps 0x1c459(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0
.byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
@@ -29689,7 +29291,7 @@ _sk_table_g_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,123,201,1,0 // minps 0x1c97b(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,225,195,1,0 // minps 0x1c3e1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,201 // cvtps2dq %xmm9,%xmm1
.byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
@@ -29720,7 +29322,7 @@ _sk_table_b_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,3,201,1,0 // minps 0x1c903(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,105,195,1,0 // minps 0x1c369(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
.byte 102,72,15,58,22,208,1 // pextrq $0x1,%xmm2,%rax
@@ -29751,7 +29353,7 @@ _sk_table_a_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,139,200,1,0 // minps 0x1c88b(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,241,194,1,0 // minps 0x1c2f1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,217 // cvtps2dq %xmm9,%xmm3
.byte 102,72,15,58,22,216,1 // pextrq $0x1,%xmm3,%rax
@@ -29793,32 +29395,32 @@ _sk_parametric_r_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,132,202,1,0 // mulps 0x1ca84(%rip),%xmm8 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,140,202,1,0 // movaps 0x1ca8c(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,5,234,196,1,0 // mulps 0x1c4ea(%rip),%xmm8 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,242,196,1,0 // movaps 0x1c4f2(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,176,199,1,0 // orps 0x1c7b0(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,5,136,202,1,0 // addps 0x1ca88(%rip),%xmm8 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,53,144,202,1,0 // movaps 0x1ca90(%rip),%xmm14 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,22,194,1,0 // orps 0x1c216(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,5,238,196,1,0 // addps 0x1c4ee(%rip),%xmm8 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,246,196,1,0 // movaps 0x1c4f6(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
- .byte 68,15,88,45,144,202,1,0 // addps 0x1ca90(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 68,15,40,53,152,202,1,0 // movaps 0x1ca98(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,246,196,1,0 // addps 0x1c4f6(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,254,196,1,0 // movaps 0x1c4fe(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
.byte 102,69,15,58,8,224,1 // roundps $0x1,%xmm8,%xmm12
.byte 69,15,40,232 // movaps %xmm8,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,5,133,202,1,0 // addps 0x1ca85(%rip),%xmm8 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 68,15,40,37,141,202,1,0 // movaps 0x1ca8d(%rip),%xmm12 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,5,235,196,1,0 // addps 0x1c4eb(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,40,37,141,202,1,0 // movaps 0x1ca8d(%rip),%xmm12 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,145,202,1,0 // movaps 0x1ca91(%rip),%xmm13 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,45,247,196,1,0 // movaps 0x1c4f7(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 68,15,89,45,145,202,1,0 // mulps 0x1ca91(%rip),%xmm13 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,89,45,247,196,1,0 // mulps 0x1c4f7(%rip),%xmm13 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,197 // cvtps2dq %xmm13,%xmm8
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
@@ -29827,7 +29429,7 @@ _sk_parametric_r_sse41:
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 69,15,95,195 // maxps %xmm11,%xmm8
- .byte 68,15,93,5,18,199,1,0 // minps 0x1c712(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,5,120,193,1,0 // minps 0x1c178(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29858,32 +29460,32 @@ _sk_parametric_g_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,79,201,1,0 // mulps 0x1c94f(%rip),%xmm14 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,87,201,1,0 // movaps 0x1c957(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,53,181,195,1,0 // mulps 0x1c3b5(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,189,195,1,0 // movaps 0x1c3bd(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,123,198,1,0 // orps 0x1c67b(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,53,83,201,1,0 // addps 0x1c953(%rip),%xmm14 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 15,40,13,92,201,1,0 // movaps 0x1c95c(%rip),%xmm1 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,225,192,1,0 // orps 0x1c0e1(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,53,185,195,1,0 // addps 0x1c3b9(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,40,13,194,195,1,0 // movaps 0x1c3c2(%rip),%xmm1 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,88,45,92,201,1,0 // addps 0x1c95c(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 15,40,13,101,201,1,0 // movaps 0x1c965(%rip),%xmm1 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,194,195,1,0 // addps 0x1c3c2(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,13,203,195,1,0 // movaps 0x1c3cb(%rip),%xmm1 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,94,205 // divps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,82,201,1,0 // addps 0x1c952(%rip),%xmm14 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 15,40,13,91,201,1,0 // movaps 0x1c95b(%rip),%xmm1 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,53,184,195,1,0 // addps 0x1c3b8(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,13,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,40,37,91,201,1,0 // movaps 0x1c95b(%rip),%xmm12 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,37,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,13,96,201,1,0 // movaps 0x1c960(%rip),%xmm1 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 15,40,13,198,195,1,0 // movaps 0x1c3c6(%rip),%xmm1 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,94,204 // divps %xmm12,%xmm1
.byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,89,13,97,201,1,0 // mulps 0x1c961(%rip),%xmm1 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 15,89,13,199,195,1,0 // mulps 0x1c3c7(%rip),%xmm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,209 // andps %xmm1,%xmm10
@@ -29892,7 +29494,7 @@ _sk_parametric_g_sse41:
.byte 65,15,88,202 // addps %xmm10,%xmm1
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 65,15,95,203 // maxps %xmm11,%xmm1
- .byte 15,93,13,230,197,1,0 // minps 0x1c5e6(%rip),%xmm1 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,93,13,76,192,1,0 // minps 0x1c04c(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29923,32 +29525,32 @@ _sk_parametric_b_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,35,200,1,0 // mulps 0x1c823(%rip),%xmm14 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,43,200,1,0 // movaps 0x1c82b(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,53,137,194,1,0 // mulps 0x1c289(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,145,194,1,0 // movaps 0x1c291(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,79,197,1,0 // orps 0x1c54f(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,53,39,200,1,0 // addps 0x1c827(%rip),%xmm14 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 15,40,21,48,200,1,0 // movaps 0x1c830(%rip),%xmm2 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,181,191,1,0 // orps 0x1bfb5(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,53,141,194,1,0 // addps 0x1c28d(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,40,21,150,194,1,0 // movaps 0x1c296(%rip),%xmm2 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,88,45,48,200,1,0 // addps 0x1c830(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 15,40,21,57,200,1,0 // movaps 0x1c839(%rip),%xmm2 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,150,194,1,0 // addps 0x1c296(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,21,159,194,1,0 // movaps 0x1c29f(%rip),%xmm2 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,94,213 // divps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,38,200,1,0 // addps 0x1c826(%rip),%xmm14 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 15,40,21,47,200,1,0 // movaps 0x1c82f(%rip),%xmm2 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,53,140,194,1,0 // addps 0x1c28c(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,21,149,194,1,0 // movaps 0x1c295(%rip),%xmm2 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,40,37,47,200,1,0 // movaps 0x1c82f(%rip),%xmm12 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,37,149,194,1,0 // movaps 0x1c295(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,21,52,200,1,0 // movaps 0x1c834(%rip),%xmm2 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 15,40,21,154,194,1,0 // movaps 0x1c29a(%rip),%xmm2 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,94,212 // divps %xmm12,%xmm2
.byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,89,21,53,200,1,0 // mulps 0x1c835(%rip),%xmm2 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 15,89,21,155,194,1,0 // mulps 0x1c29b(%rip),%xmm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,210 // andps %xmm2,%xmm10
@@ -29957,7 +29559,7 @@ _sk_parametric_b_sse41:
.byte 65,15,88,210 // addps %xmm10,%xmm2
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 65,15,95,211 // maxps %xmm11,%xmm2
- .byte 15,93,21,186,196,1,0 // minps 0x1c4ba(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,93,21,32,191,1,0 // minps 0x1bf20(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29988,32 +29590,32 @@ _sk_parametric_a_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,247,198,1,0 // mulps 0x1c6f7(%rip),%xmm14 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,255,198,1,0 // movaps 0x1c6ff(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,53,93,193,1,0 // mulps 0x1c15d(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,101,193,1,0 // movaps 0x1c165(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,35,196,1,0 // orps 0x1c423(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,53,251,198,1,0 // addps 0x1c6fb(%rip),%xmm14 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 15,40,29,4,199,1,0 // movaps 0x1c704(%rip),%xmm3 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,137,190,1,0 // orps 0x1be89(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,53,97,193,1,0 // addps 0x1c161(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,40,29,106,193,1,0 // movaps 0x1c16a(%rip),%xmm3 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,88,45,4,199,1,0 // addps 0x1c704(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 15,40,29,13,199,1,0 // movaps 0x1c70d(%rip),%xmm3 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,106,193,1,0 // addps 0x1c16a(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,29,115,193,1,0 // movaps 0x1c173(%rip),%xmm3 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,94,221 // divps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,250,198,1,0 // addps 0x1c6fa(%rip),%xmm14 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 15,40,29,3,199,1,0 // movaps 0x1c703(%rip),%xmm3 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,53,96,193,1,0 // addps 0x1c160(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,29,105,193,1,0 // movaps 0x1c169(%rip),%xmm3 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,40,37,3,199,1,0 // movaps 0x1c703(%rip),%xmm12 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,37,105,193,1,0 // movaps 0x1c169(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,29,8,199,1,0 // movaps 0x1c708(%rip),%xmm3 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 15,40,29,110,193,1,0 // movaps 0x1c16e(%rip),%xmm3 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,94,220 // divps %xmm12,%xmm3
.byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 15,89,29,9,199,1,0 // mulps 0x1c709(%rip),%xmm3 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 15,89,29,111,193,1,0 // mulps 0x1c16f(%rip),%xmm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,211 // andps %xmm3,%xmm10
@@ -30022,7 +29624,7 @@ _sk_parametric_a_sse41:
.byte 65,15,88,218 // addps %xmm10,%xmm3
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 65,15,95,219 // maxps %xmm11,%xmm3
- .byte 15,93,29,142,195,1,0 // minps 0x1c38e(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,93,29,244,189,1,0 // minps 0x1bdf4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30040,21 +29642,21 @@ _sk_gamma_sse41:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,8,198,1,0 // movaps 0x1c608(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,40,5,110,192,1,0 // movaps 0x1c06e(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,10,198,1,0 // movaps 0x1c60a(%rip),%xmm8 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,5,112,192,1,0 // movaps 0x1c070(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,44,195,1,0 // orps 0x1c32c(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 15,88,53,5,198,1,0 // addps 0x1c605(%rip),%xmm6 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,29,13,198,1,0 // movaps 0x1c60d(%rip),%xmm11 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 15,86,5,146,189,1,0 // orps 0x1bd92(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,53,107,192,1,0 // addps 0x1c06b(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,115,192,1,0 // movaps 0x1c073(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,11,198,1,0 // movaps 0x1c60b(%rip),%xmm15 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,40,61,113,192,1,0 // movaps 0x1c071(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,15,198,1,0 // movaps 0x1c60f(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,53,117,192,1,0 // movaps 0x1c075(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -30065,19 +29667,19 @@ _sk_gamma_sse41:
.byte 102,15,58,8,198,1 // roundps $0x1,%xmm6,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,245,197,1,0 // addps 0x1c5f5(%rip),%xmm6 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 15,40,29,14,198,1,0 // movaps 0x1c60e(%rip),%xmm3 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 15,88,53,91,192,1,0 // addps 0x1c05b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,29,116,192,1,0 // movaps 0x1c074(%rip),%xmm3 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,236,197,1,0 // movaps 0x1c5ec(%rip),%xmm1 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,13,82,192,1,0 // movaps 0x1c052(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,45,254,197,1,0 // movaps 0x1c5fe(%rip),%xmm13 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,45,100,192,1,0 // movaps 0x1c064(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,251,197,1,0 // movaps 0x1c5fb(%rip),%xmm9 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,40,13,97,192,1,0 // movaps 0x1c061(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -30087,9 +29689,9 @@ _sk_gamma_sse41:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,115,194,1,0 // movaps 0x1c273(%rip),%xmm6 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,53,217,188,1,0 // movaps 0x1bcd9(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,73,197,1,0 // addps 0x1c549(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,175,191,1,0 // addps 0x1bfaf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -30101,7 +29703,7 @@ _sk_gamma_sse41:
.byte 102,15,58,8,232,1 // roundps $0x1,%xmm0,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 68,15,40,61,90,197,1,0 // movaps 0x1c55a(%rip),%xmm15 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
+ .byte 68,15,40,61,192,191,1,0 // movaps 0x1bfc0(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
@@ -30116,13 +29718,13 @@ _sk_gamma_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,193,196,1,0 // mulps 0x1c4c1(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,89,5,39,191,1,0 // mulps 0x1bf27(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,210,196,1,0 // addps 0x1c4d2(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,56,191,1,0 // addps 0x1bf38(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,226,196,1,0 // addps 0x1c4e2(%rip),%xmm8 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,88,5,72,191,1,0 // addps 0x1bf48(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -30163,21 +29765,21 @@ _sk_gamma_dst_sse41:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,14,196,1,0 // movaps 0x1c40e(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,40,5,116,190,1,0 // movaps 0x1be74(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,16,196,1,0 // movaps 0x1c410(%rip),%xmm8 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,5,118,190,1,0 // movaps 0x1be76(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,50,193,1,0 // orps 0x1c132(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 15,88,29,11,196,1,0 // addps 0x1c40b(%rip),%xmm3 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,29,19,196,1,0 // movaps 0x1c413(%rip),%xmm11 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 15,86,5,152,187,1,0 // orps 0x1bb98(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,29,113,190,1,0 // addps 0x1be71(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,121,190,1,0 // movaps 0x1be79(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,17,196,1,0 // movaps 0x1c411(%rip),%xmm15 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,40,61,119,190,1,0 // movaps 0x1be77(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,21,196,1,0 // movaps 0x1c415(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,53,123,190,1,0 // movaps 0x1be7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -30188,19 +29790,19 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,195,1 // roundps $0x1,%xmm3,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,251,195,1,0 // addps 0x1c3fb(%rip),%xmm3 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 15,40,37,20,196,1,0 // movaps 0x1c414(%rip),%xmm4 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 15,88,29,97,190,1,0 // addps 0x1be61(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,37,122,190,1,0 // movaps 0x1be7a(%rip),%xmm4 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,242,195,1,0 // movaps 0x1c3f2(%rip),%xmm1 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,13,88,190,1,0 // movaps 0x1be58(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,45,4,196,1,0 // movaps 0x1c404(%rip),%xmm13 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,45,106,190,1,0 // movaps 0x1be6a(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,1,196,1,0 // movaps 0x1c401(%rip),%xmm9 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,40,13,103,190,1,0 // movaps 0x1be67(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -30210,9 +29812,9 @@ _sk_gamma_dst_sse41:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,121,192,1,0 // movaps 0x1c079(%rip),%xmm3 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,29,223,186,1,0 // movaps 0x1badf(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,79,195,1,0 // addps 0x1c34f(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,181,189,1,0 // addps 0x1bdb5(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -30224,7 +29826,7 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,240,1 // roundps $0x1,%xmm0,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 68,15,40,61,96,195,1,0 // movaps 0x1c360(%rip),%xmm15 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
+ .byte 68,15,40,61,198,189,1,0 // movaps 0x1bdc6(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
@@ -30239,13 +29841,13 @@ _sk_gamma_dst_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,199,194,1,0 // mulps 0x1c2c7(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,89,5,45,189,1,0 // mulps 0x1bd2d(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,216,194,1,0 // addps 0x1c2d8(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,62,189,1,0 // addps 0x1bd3e(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,232,194,1,0 // addps 0x1c2e8(%rip),%xmm8 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,88,5,78,189,1,0 // addps 0x1bd4e(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -30278,29 +29880,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,230,194,1,0 // mulps 0x1c2e6(%rip),%xmm8 # 3bbf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
- .byte 68,15,40,13,94,192,1,0 // movaps 0x1c05e(%rip),%xmm9 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,89,5,76,189,1,0 // mulps 0x1bd4c(%rip),%xmm8 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,40,13,196,186,1,0 // movaps 0x1bac4(%rip),%xmm9 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,227,194,1,0 // movaps 0x1c2e3(%rip),%xmm0 # 3bc00 <_sk_srcover_bgra_8888_sse2_lowp+0x1010>
+ .byte 15,40,5,73,189,1,0 // movaps 0x1bd49(%rip),%xmm0 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,225,194,1,0 // addps 0x1c2e1(%rip),%xmm8 # 3bc10 <_sk_srcover_bgra_8888_sse2_lowp+0x1020>
- .byte 68,15,89,5,233,194,1,0 // mulps 0x1c2e9(%rip),%xmm8 # 3bc20 <_sk_srcover_bgra_8888_sse2_lowp+0x1030>
- .byte 15,89,13,242,194,1,0 // mulps 0x1c2f2(%rip),%xmm1 # 3bc30 <_sk_srcover_bgra_8888_sse2_lowp+0x1040>
+ .byte 68,15,88,5,71,189,1,0 // addps 0x1bd47(%rip),%xmm8 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
+ .byte 68,15,89,5,79,189,1,0 // mulps 0x1bd4f(%rip),%xmm8 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
+ .byte 15,89,13,88,189,1,0 // mulps 0x1bd58(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,247,194,1,0 // mulps 0x1c2f7(%rip),%xmm2 # 3bc40 <_sk_srcover_bgra_8888_sse2_lowp+0x1050>
+ .byte 15,89,21,93,189,1,0 // mulps 0x1bd5d(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,235,194,1,0 // movaps 0x1c2eb(%rip),%xmm9 # 3bc50 <_sk_srcover_bgra_8888_sse2_lowp+0x1060>
+ .byte 68,15,40,13,81,189,1,0 // movaps 0x1bd51(%rip),%xmm9 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,235,194,1,0 // movaps 0x1c2eb(%rip),%xmm2 # 3bc60 <_sk_srcover_bgra_8888_sse2_lowp+0x1070>
+ .byte 15,40,21,81,189,1,0 // movaps 0x1bd51(%rip),%xmm2 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,240,194,1,0 // movaps 0x1c2f0(%rip),%xmm12 # 3bc70 <_sk_srcover_bgra_8888_sse2_lowp+0x1080>
+ .byte 68,15,40,37,86,189,1,0 // movaps 0x1bd56(%rip),%xmm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -30319,8 +29921,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,169,194,1,0 // mulps 0x1c2a9(%rip),%xmm1 # 3bc80 <_sk_srcover_bgra_8888_sse2_lowp+0x1090>
- .byte 15,89,21,178,194,1,0 // mulps 0x1c2b2(%rip),%xmm2 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10a0>
+ .byte 15,89,13,15,189,1,0 // mulps 0x1bd0f(%rip),%xmm1 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
+ .byte 15,89,21,24,189,1,0 // mulps 0x1bd18(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -30337,11 +29939,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1fa28 <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1f282 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,48,191,1,0 // pand 0x1bf30(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,5,150,185,1,0 // pand 0x1b996(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,134,192,1,0 // mulps 0x1c086(%rip),%xmm3 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,29,236,186,1,0 // mulps 0x1baec(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30350,12 +29952,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1fa6a <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1f2c4 <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1fa54 <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1f2ae <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1fa08 <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1f262 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -30363,10 +29965,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 1fa08 <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1f262 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 1fa08 <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1f262 <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -30379,11 +29981,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1fab4 <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1f30e <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,164,190,1,0 // pand 0x1bea4(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,37,10,185,1,0 // pand 0x1b90a(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,250,191,1,0 // mulps 0x1bffa(%rip),%xmm7 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,61,96,186,1,0 // mulps 0x1ba60(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -30392,12 +29994,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1faf6 <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1f350 <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1fae0 <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1f33a <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1fa94 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1f2ee <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30405,10 +30007,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1fa94 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1fa94 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -30451,7 +30053,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,242,190,1,0 // mulps 0x1bef2(%rip),%xmm3 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,29,88,185,1,0 // mulps 0x1b958(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30470,13 +30072,13 @@ _sk_store_a8_sse41:
.byte 76,99,210 // movslq %edx,%r10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,177,188,1,0 // minps 0x1bcb1(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
- .byte 68,15,89,5,137,189,1,0 // mulps 0x1bd89(%rip),%xmm8 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,93,5,23,183,1,0 // minps 0x1b717(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,89,5,239,183,1,0 // mulps 0x1b7ef(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1fc09 <_sk_store_a8_sse41+0x4d>
+ .byte 117,13 // jne 1f463 <_sk_store_a8_sse41+0x4d>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30485,17 +30087,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1fc45 <_sk_store_a8_sse41+0x89>
+ .byte 116,41 // je 1f49f <_sk_store_a8_sse41+0x89>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1fc31 <_sk_store_a8_sse41+0x75>
+ .byte 116,15 // je 1f48b <_sk_store_a8_sse41+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1fc05 <_sk_store_a8_sse41+0x49>
+ .byte 117,221 // jne 1f45f <_sk_store_a8_sse41+0x49>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,101,192,1,0 // pshufb 0x1c065(%rip),%xmm8 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x10b0>
+ .byte 102,68,15,56,0,5,203,186,1,0 // pshufb 0x1bacb(%rip),%xmm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 1fc05 <_sk_store_a8_sse41+0x49>
+ .byte 235,192 // jmp 1f45f <_sk_store_a8_sse41+0x49>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 1fc05 <_sk_store_a8_sse41+0x49>
+ .byte 235,182 // jmp 1f45f <_sk_store_a8_sse41+0x49>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -30508,25 +30110,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1fc91 <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1f4eb <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,202,188,1,0 // pand 0x1bcca(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,5,48,183,1,0 // pand 0x1b730(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,32,190,1,0 // mulps 0x1be20(%rip),%xmm0 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,5,134,184,1,0 // mulps 0x1b886(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,7,188,1,0 // movaps 0x1bc07(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,109,182,1,0 // movaps 0x1b66d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1fcd3 <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1f52d <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1fcbd <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1f517 <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1fc6e <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1f4c8 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -30534,10 +30136,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1fc6e <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1fc6e <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -30550,25 +30152,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1fd20 <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1f57a <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,59,188,1,0 // pand 0x1bc3b(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,37,161,182,1,0 // pand 0x1b6a1(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,145,189,1,0 // mulps 0x1bd91(%rip),%xmm4 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,37,247,183,1,0 // mulps 0x1b7f7(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,120,187,1,0 // movaps 0x1bb78(%rip),%xmm7 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,61,222,181,1,0 // movaps 0x1b5de(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1fd62 <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1f5bc <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1fd4c <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1f5a6 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1fcfd <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1f557 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30576,10 +30178,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1fcfd <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1fcfd <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -30622,9 +30224,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,134,188,1,0 // mulps 0x1bc86(%rip),%xmm0 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,5,236,182,1,0 // mulps 0x1b6ec(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,109,186,1,0 // movaps 0x1ba6d(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,211,180,1,0 // movaps 0x1b4d3(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30641,41 +30243,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1fe96 <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1f6f0 <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,91,188,1,0 // movdqa 0x1bc5b(%rip),%xmm0 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,193,182,1,0 // movdqa 0x1b6c1(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,93,188,1,0 // mulps 0x1bc5d(%rip),%xmm0 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,101,188,1,0 // movdqa 0x1bc65(%rip),%xmm1 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,195,182,1,0 // mulps 0x1b6c3(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,203,182,1,0 // movdqa 0x1b6cb(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,103,188,1,0 // mulps 0x1bc67(%rip),%xmm1 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,15,219,21,111,188,1,0 // pand 0x1bc6f(%rip),%xmm2 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,205,182,1,0 // mulps 0x1b6cd(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,213,182,1,0 // pand 0x1b6d5(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,117,188,1,0 // mulps 0x1bc75(%rip),%xmm2 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 15,89,21,219,182,1,0 // mulps 0x1b6db(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,252,185,1,0 // movaps 0x1b9fc(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,98,180,1,0 // movaps 0x1b462(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1fed8 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1f732 <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1fec2 <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1f71c <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1fe4d <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1f6a7 <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 1fe4d <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 1fe4d <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -30689,41 +30291,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1ff51 <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1f7ab <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,160,187,1,0 // movdqa 0x1bba0(%rip),%xmm4 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,37,6,182,1,0 // movdqa 0x1b606(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,162,187,1,0 // mulps 0x1bba2(%rip),%xmm4 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,45,170,187,1,0 // movdqa 0x1bbaa(%rip),%xmm5 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 15,89,37,8,182,1,0 // mulps 0x1b608(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,45,16,182,1,0 // movdqa 0x1b610(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,172,187,1,0 // mulps 0x1bbac(%rip),%xmm5 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,15,219,53,180,187,1,0 // pand 0x1bbb4(%rip),%xmm6 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 15,89,45,18,182,1,0 // mulps 0x1b612(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,53,26,182,1,0 // pand 0x1b61a(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,186,187,1,0 // mulps 0x1bbba(%rip),%xmm6 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 15,89,53,32,182,1,0 // mulps 0x1b620(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,65,185,1,0 // movaps 0x1b941(%rip),%xmm7 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,61,167,179,1,0 // movaps 0x1b3a7(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1ff93 <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1f7ed <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1ff7d <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1f7d7 <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1ff08 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1f762 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 1ff08 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 1ff08 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -30765,19 +30367,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,103,186,1,0 // movdqa 0x1ba67(%rip),%xmm0 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,205,180,1,0 // movdqa 0x1b4cd(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,105,186,1,0 // mulps 0x1ba69(%rip),%xmm0 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,113,186,1,0 // movdqa 0x1ba71(%rip),%xmm1 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,207,180,1,0 // mulps 0x1b4cf(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,215,180,1,0 // movdqa 0x1b4d7(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,115,186,1,0 // mulps 0x1ba73(%rip),%xmm1 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,15,219,21,123,186,1,0 // pand 0x1ba7b(%rip),%xmm2 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,217,180,1,0 // mulps 0x1b4d9(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,225,180,1,0 // pand 0x1b4e1(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,129,186,1,0 // mulps 0x1ba81(%rip),%xmm2 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 15,89,21,231,180,1,0 // mulps 0x1b4e7(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,8,184,1,0 // movaps 0x1b808(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,110,178,1,0 // movaps 0x1b26e(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -30794,16 +30396,16 @@ _sk_store_565_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,220,183,1,0 // movaps 0x1b7dc(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,66,178,1,0 // movaps 0x1b242(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,240,187,1,0 // movaps 0x1bbf0(%rip),%xmm11 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,29,86,182,1,0 // movaps 0x1b656(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
.byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,221,187,1,0 // mulps 0x1bbdd(%rip),%xmm12 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d0>
+ .byte 68,15,89,37,67,182,1,0 // mulps 0x1b643(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
.byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
.byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
.byte 68,15,95,194 // maxps %xmm2,%xmm8
@@ -30814,7 +30416,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2011e <_sk_store_565_sse41+0x94>
+ .byte 117,10 // jne 1f978 <_sk_store_565_sse41+0x94>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30822,17 +30424,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 20154 <_sk_store_565_sse41+0xca>
+ .byte 116,35 // je 1f9ae <_sk_store_565_sse41+0xca>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 20146 <_sk_store_565_sse41+0xbc>
+ .byte 116,15 // je 1f9a0 <_sk_store_565_sse41+0xbc>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 2011a <_sk_store_565_sse41+0x90>
+ .byte 117,221 // jne 1f974 <_sk_store_565_sse41+0x90>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 2011a <_sk_store_565_sse41+0x90>
+ .byte 235,198 // jmp 1f974 <_sk_store_565_sse41+0x90>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 2011a <_sk_store_565_sse41+0x90>
+ .byte 235,188 // jmp 1f974 <_sk_store_565_sse41+0x90>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -30846,44 +30448,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 201d8 <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 1fa32 <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,72,187,1,0 // movdqa 0x1bb48(%rip),%xmm0 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
+ .byte 102,15,111,5,174,181,1,0 // movdqa 0x1b5ae(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,74,187,1,0 // mulps 0x1bb4a(%rip),%xmm0 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
- .byte 102,15,111,13,82,187,1,0 // movdqa 0x1bb52(%rip),%xmm1 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 15,89,5,176,181,1,0 // mulps 0x1b5b0(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,184,181,1,0 // movdqa 0x1b5b8(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,84,187,1,0 // mulps 0x1bb54(%rip),%xmm1 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
- .byte 102,15,111,21,92,187,1,0 // movdqa 0x1bb5c(%rip),%xmm2 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 15,89,13,186,181,1,0 // mulps 0x1b5ba(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,194,181,1,0 // movdqa 0x1b5c2(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,94,187,1,0 // mulps 0x1bb5e(%rip),%xmm2 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
- .byte 102,15,219,29,102,187,1,0 // pand 0x1bb66(%rip),%xmm3 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 15,89,21,196,181,1,0 // mulps 0x1b5c4(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,204,181,1,0 // pand 0x1b5cc(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,108,187,1,0 // mulps 0x1bb6c(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
+ .byte 15,89,29,210,181,1,0 // mulps 0x1b5d2(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 2021a <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 1fa74 <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 20204 <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 1fa5e <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 20180 <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 1f9da <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 20180 <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 20180 <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -30897,44 +30499,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 202a2 <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 1fafc <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,126,186,1,0 // movdqa 0x1ba7e(%rip),%xmm4 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
+ .byte 102,15,111,37,228,180,1,0 // movdqa 0x1b4e4(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,128,186,1,0 // mulps 0x1ba80(%rip),%xmm4 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
- .byte 102,15,111,45,136,186,1,0 // movdqa 0x1ba88(%rip),%xmm5 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 15,89,37,230,180,1,0 // mulps 0x1b4e6(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,45,238,180,1,0 // movdqa 0x1b4ee(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,138,186,1,0 // mulps 0x1ba8a(%rip),%xmm5 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
- .byte 102,15,111,53,146,186,1,0 // movdqa 0x1ba92(%rip),%xmm6 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 15,89,45,240,180,1,0 // mulps 0x1b4f0(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,53,248,180,1,0 // movdqa 0x1b4f8(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,148,186,1,0 // mulps 0x1ba94(%rip),%xmm6 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
- .byte 102,15,219,61,156,186,1,0 // pand 0x1ba9c(%rip),%xmm7 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 15,89,53,250,180,1,0 // mulps 0x1b4fa(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,61,2,181,1,0 // pand 0x1b502(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,162,186,1,0 // mulps 0x1baa2(%rip),%xmm7 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
+ .byte 15,89,61,8,181,1,0 // mulps 0x1b508(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 202e4 <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 1fb3e <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 202ce <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 1fb28 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 2024a <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 1faa4 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 2024a <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 2024a <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -30976,21 +30578,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,54,185,1,0 // movdqa 0x1b936(%rip),%xmm0 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
+ .byte 102,15,111,5,156,179,1,0 // movdqa 0x1b39c(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,56,185,1,0 // mulps 0x1b938(%rip),%xmm0 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
- .byte 102,15,111,13,64,185,1,0 // movdqa 0x1b940(%rip),%xmm1 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 15,89,5,158,179,1,0 // mulps 0x1b39e(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,166,179,1,0 // movdqa 0x1b3a6(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,66,185,1,0 // mulps 0x1b942(%rip),%xmm1 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
- .byte 102,15,111,21,74,185,1,0 // movdqa 0x1b94a(%rip),%xmm2 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 15,89,13,168,179,1,0 // mulps 0x1b3a8(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,176,179,1,0 // movdqa 0x1b3b0(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,76,185,1,0 // mulps 0x1b94c(%rip),%xmm2 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
- .byte 102,15,219,29,84,185,1,0 // pand 0x1b954(%rip),%xmm3 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 15,89,21,178,179,1,0 // mulps 0x1b3b2(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,186,179,1,0 // pand 0x1b3ba(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,90,185,1,0 // mulps 0x1b95a(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
+ .byte 15,89,29,192,179,1,0 // mulps 0x1b3c0(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31008,9 +30610,9 @@ _sk_store_4444_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,124,180,1,0 // movaps 0x1b47c(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,226,174,1,0 // movaps 0x1aee2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,48,185,1,0 // movaps 0x1b930(%rip),%xmm11 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
+ .byte 68,15,40,29,150,179,1,0 // movaps 0x1b396(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
@@ -31035,7 +30637,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2049b <_sk_store_4444_sse41+0xb1>
+ .byte 117,10 // jne 1fcf5 <_sk_store_4444_sse41+0xb1>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31043,17 +30645,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 204d1 <_sk_store_4444_sse41+0xe7>
+ .byte 116,35 // je 1fd2b <_sk_store_4444_sse41+0xe7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 204c3 <_sk_store_4444_sse41+0xd9>
+ .byte 116,15 // je 1fd1d <_sk_store_4444_sse41+0xd9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 20497 <_sk_store_4444_sse41+0xad>
+ .byte 117,221 // jne 1fcf1 <_sk_store_4444_sse41+0xad>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 20497 <_sk_store_4444_sse41+0xad>
+ .byte 235,198 // jmp 1fcf1 <_sk_store_4444_sse41+0xad>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 20497 <_sk_store_4444_sse41+0xad>
+ .byte 235,188 // jmp 1fcf1 <_sk_store_4444_sse41+0xad>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -31067,19 +30669,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 20550 <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 1fdaa <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,59,180,1,0 // movdqa 0x1b43b(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,5,161,174,1,0 // movdqa 0x1aea1(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,140,181,1,0 // movaps 0x1b58c(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,242,175,1,0 // movaps 0x1aff2(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,43,180,1,0 // pshufb 0x1b42b(%rip),%xmm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,13,145,174,1,0 // pshufb 0x1ae91(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,39,180,1,0 // pshufb 0x1b427(%rip),%xmm2 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,21,141,174,1,0 // pshufb 0x1ae8d(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31090,19 +30692,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 2058a <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 1fde4 <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 20579 <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 1fdd3 <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 204fd <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 1fd57 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 204fd <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 204fd <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -31116,19 +30718,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 2060a <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 1fe64 <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,129,179,1,0 // movdqa 0x1b381(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,37,231,173,1,0 // movdqa 0x1ade7(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,210,180,1,0 // movaps 0x1b4d2(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,56,175,1,0 // movaps 0x1af38(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,113,179,1,0 // pshufb 0x1b371(%rip),%xmm5 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,45,215,173,1,0 // pshufb 0x1add7(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,109,179,1,0 // pshufb 0x1b36d(%rip),%xmm6 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,53,211,173,1,0 // pshufb 0x1add3(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31139,19 +30741,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 20644 <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 1fe9e <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 20633 <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 1fe8d <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 205b7 <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 1fe11 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 205b7 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 205b7 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -31188,17 +30790,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,90,178,1,0 // movdqa 0x1b25a(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,5,192,172,1,0 // movdqa 0x1acc0(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,171,179,1,0 // movaps 0x1b3ab(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,17,174,1,0 // movaps 0x1ae11(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,74,178,1,0 // pshufb 0x1b24a(%rip),%xmm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,13,176,172,1,0 // pshufb 0x1acb0(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,70,178,1,0 // pshufb 0x1b246(%rip),%xmm2 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,21,172,172,1,0 // pshufb 0x1acac(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31221,9 +30823,9 @@ _sk_store_8888_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,52,177,1,0 // movaps 0x1b134(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,154,171,1,0 // movaps 0x1ab9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,8,178,1,0 // movaps 0x1b208(%rip),%xmm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,29,110,172,1,0 // movaps 0x1ac6e(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -31247,23 +30849,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 207dd <_sk_store_8888_sse41+0xac>
+ .byte 117,10 // jne 20037 <_sk_store_8888_sse41+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 20807 <_sk_store_8888_sse41+0xd6>
+ .byte 116,29 // je 20061 <_sk_store_8888_sse41+0xd6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 207ff <_sk_store_8888_sse41+0xce>
+ .byte 116,15 // je 20059 <_sk_store_8888_sse41+0xce>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 207d9 <_sk_store_8888_sse41+0xa8>
+ .byte 117,227 // jne 20033 <_sk_store_8888_sse41+0xa8>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 207d9 <_sk_store_8888_sse41+0xa8>
+ .byte 235,210 // jmp 20033 <_sk_store_8888_sse41+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 207d9 <_sk_store_8888_sse41+0xa8>
+ .byte 235,202 // jmp 20033 <_sk_store_8888_sse41+0xa8>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -31277,19 +30879,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 20884 <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 200de <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,7,177,1,0 // movdqa 0x1b107(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,5,109,171,1,0 // movdqa 0x1ab6d(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,88,178,1,0 // movaps 0x1b258(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,190,172,1,0 // movaps 0x1acbe(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,247,176,1,0 // pshufb 0x1b0f7(%rip),%xmm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,5,93,171,1,0 // pshufb 0x1ab5d(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,243,176,1,0 // pshufb 0x1b0f3(%rip),%xmm0 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,5,89,171,1,0 // pshufb 0x1ab59(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31300,19 +30902,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 208be <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 20118 <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 208ad <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 20107 <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 20831 <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 2008b <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 20831 <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 20831 <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -31326,19 +30928,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 2093e <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 20198 <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,77,176,1,0 // movdqa 0x1b04d(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,37,179,170,1,0 // movdqa 0x1aab3(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,158,177,1,0 // movaps 0x1b19e(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,4,172,1,0 // movaps 0x1ac04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,61,176,1,0 // pshufb 0x1b03d(%rip),%xmm4 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,37,163,170,1,0 // pshufb 0x1aaa3(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,57,176,1,0 // pshufb 0x1b039(%rip),%xmm4 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,37,159,170,1,0 // pshufb 0x1aa9f(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31349,19 +30951,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 20978 <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 201d2 <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 20967 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 201c1 <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 208eb <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 20145 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 208eb <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 208eb <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -31398,17 +31000,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,38,175,1,0 // movdqa 0x1af26(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,5,140,169,1,0 // movdqa 0x1a98c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,119,176,1,0 // movaps 0x1b077(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,221,170,1,0 // movaps 0x1aadd(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,22,175,1,0 // pshufb 0x1af16(%rip),%xmm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 102,15,56,0,5,124,169,1,0 // pshufb 0x1a97c(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,18,175,1,0 // pshufb 0x1af12(%rip),%xmm0 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
+ .byte 102,15,56,0,5,120,169,1,0 // pshufb 0x1a978(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31431,9 +31033,9 @@ _sk_store_bgra_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,0,174,1,0 // movaps 0x1ae00(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,102,168,1,0 // movaps 0x1a866(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,212,174,1,0 // movaps 0x1aed4(%rip),%xmm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,29,58,169,1,0 // movaps 0x1a93a(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -31457,23 +31059,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 20b11 <_sk_store_bgra_sse41+0xac>
+ .byte 117,10 // jne 2036b <_sk_store_bgra_sse41+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 20b3b <_sk_store_bgra_sse41+0xd6>
+ .byte 116,29 // je 20395 <_sk_store_bgra_sse41+0xd6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 20b33 <_sk_store_bgra_sse41+0xce>
+ .byte 116,15 // je 2038d <_sk_store_bgra_sse41+0xce>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 20b0d <_sk_store_bgra_sse41+0xa8>
+ .byte 117,227 // jne 20367 <_sk_store_bgra_sse41+0xa8>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 20b0d <_sk_store_bgra_sse41+0xa8>
+ .byte 235,210 // jmp 20367 <_sk_store_bgra_sse41+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 20b0d <_sk_store_bgra_sse41+0xa8>
+ .byte 235,202 // jmp 20367 <_sk_store_bgra_sse41+0xa8>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -31487,7 +31089,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 20ca7 <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 20501 <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -31497,19 +31099,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,196,177,1,0 // movdqa 0x1b1c4(%rip),%xmm8 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,5,42,172,1,0 // movdqa 0x1ac2a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,194,177,1,0 // movdqa 0x1b1c2(%rip),%xmm10 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,40,172,1,0 // movdqa 0x1ac28(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,197,177,1,0 // movdqa 0x1b1c5(%rip),%xmm3 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,29,43,172,1,0 // movdqa 0x1ac2b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,177,177,1,0 // movdqa 0x1b1b1(%rip),%xmm11 # 3bd90 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 102,68,15,111,29,23,172,1,0 // movdqa 0x1ac17(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31552,16 +31154,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 20cc0 <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 2051a <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 20b70 <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 20b70 <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 203ca <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 20b70 <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -31575,7 +31177,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 20e45 <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 2069f <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -31585,19 +31187,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,38,176,1,0 // movdqa 0x1b026(%rip),%xmm8 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,5,140,170,1,0 // movdqa 0x1aa8c(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,36,176,1,0 // movdqa 0x1b024(%rip),%xmm10 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,138,170,1,0 // movdqa 0x1aa8a(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,39,176,1,0 // movdqa 0x1b027(%rip),%xmm7 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,61,141,170,1,0 // movdqa 0x1aa8d(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,19,176,1,0 // movdqa 0x1b013(%rip),%xmm11 # 3bd90 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 102,68,15,111,29,121,170,1,0 // movdqa 0x1aa79(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -31640,16 +31242,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 20e5e <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 206b8 <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 20d0e <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 20d0e <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 20568 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 20d0e <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -31695,19 +31297,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,36,174,1,0 // movdqa 0x1ae24(%rip),%xmm8 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,5,138,168,1,0 // movdqa 0x1a88a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,34,174,1,0 // movdqa 0x1ae22(%rip),%xmm10 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,136,168,1,0 // movdqa 0x1a888(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,37,174,1,0 // movdqa 0x1ae25(%rip),%xmm3 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,29,139,168,1,0 // movdqa 0x1a88b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,17,174,1,0 // movdqa 0x1ae11(%rip),%xmm11 # 3bd90 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 102,68,15,111,29,119,168,1,0 // movdqa 0x1a877(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31760,20 +31362,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,57,173,1,0 // movdqa 0x1ad39(%rip),%xmm9 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,111,13,159,167,1,0 // movdqa 0x1a79f(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,54,173,1,0 // movdqa 0x1ad36(%rip),%xmm11 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,111,29,156,167,1,0 // movdqa 0x1a79c(%rip),%xmm11 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,51,173,1,0 // movdqa 0x1ad33(%rip),%xmm10 # 3bdc0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
+ .byte 102,68,15,111,21,153,167,1,0 // movdqa 0x1a799(%rip),%xmm10 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,25,173,1,0 // movdqa 0x1ad19(%rip),%xmm12 # 3bdd0 <_sk_srcover_bgra_8888_sse2_lowp+0x11e0>
+ .byte 102,68,15,111,37,127,167,1,0 // movdqa 0x1a77f(%rip),%xmm12 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -31818,7 +31420,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 211b5 <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 20a0f <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -31826,13 +31428,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 211b1 <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 20a0b <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 211b1 <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 20a0b <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 211b1 <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 20a0b <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -31847,7 +31449,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 212bc <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 20b16 <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -31863,7 +31465,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,225,168,1,0 // movaps 0x1a8e1(%rip),%xmm8 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
+ .byte 68,15,40,5,71,163,1,0 // movaps 0x1a347(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31891,16 +31493,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 212d5 <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 20b2f <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 21210 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 21210 <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 20a6a <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 21210 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -31917,7 +31519,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 213cb <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 20c25 <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -31937,7 +31539,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,176,167,1,0 // movaps 0x1a7b0(%rip),%xmm8 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
+ .byte 68,15,40,5,22,162,1,0 // movaps 0x1a216(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31954,27 +31556,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,199,164,1,0 // movaps 0x1a4c7(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,45,159,1,0 // movaps 0x19f2d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 213f0 <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 20c4a <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 21345 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 21421 <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 20c7b <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 21345 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 21345 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -31991,9 +31593,9 @@ _sk_store_u16_be_sse41:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,52,164,1,0 // movaps 0x1a434(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,154,158,1,0 // movaps 0x19e9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,120,169,1,0 // movaps 0x1a978(%rip),%xmm11 # 3bde0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
+ .byte 68,15,40,29,222,163,1,0 // movaps 0x1a3de(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -32035,7 +31637,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 2154c <_sk_store_u16_be_sse41+0x122>
+ .byte 117,21 // jne 20da6 <_sk_store_u16_be_sse41+0x122>
.byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2)
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -32043,13 +31645,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 21548 <_sk_store_u16_be_sse41+0x11e>
+ .byte 116,240 // je 20da2 <_sk_store_u16_be_sse41+0x11e>
.byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 21548 <_sk_store_u16_be_sse41+0x11e>
+ .byte 114,227 // jb 20da2 <_sk_store_u16_be_sse41+0x11e>
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 21548 <_sk_store_u16_be_sse41+0x11e>
+ .byte 235,213 // jmp 20da2 <_sk_store_u16_be_sse41+0x11e>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -32065,7 +31667,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 215de <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 20e38 <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -32085,17 +31687,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 215f0 <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 20e4a <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 215ae <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 21604 <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 20e5e <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 215ae <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 215ae <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -32111,7 +31713,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 21674 <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 20ece <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -32131,17 +31733,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 21686 <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 20ee0 <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 21644 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 2169a <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 20ef4 <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 21644 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 21644 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -32170,7 +31772,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 2171c <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 20f76 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -32178,12 +31780,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 21718 <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 20f72 <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 21718 <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 20f72 <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 21718 <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 20f72 <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -32229,7 +31831,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,220,150,1,0 // mulss 0x196dc(%rip),%xmm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,250,145,1,0 // mulss 0x191fa(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32254,7 +31856,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,131,150,1,0 // mulss 0x19683(%rip),%xmm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,161,145,1,0 // mulss 0x191a1(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32273,7 +31875,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,59,160,1,0 // minps 0x1a03b(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,5,161,154,1,0 // minps 0x19aa1(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32286,7 +31888,7 @@ _sk_repeat_x_1_sse41:
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,24,160,1,0 // minps 0x1a018(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,5,126,154,1,0 // minps 0x19a7e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32295,9 +31897,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,104,160,1,0 // movaps 0x1a068(%rip),%xmm8 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
+ .byte 68,15,40,5,206,154,1,0 // movaps 0x19ace(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,236,159,1,0 // movaps 0x19fec(%rip),%xmm9 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,13,82,154,1,0 // movaps 0x19a52(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -32308,7 +31910,7 @@ _sk_mirror_x_1_sse41:
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 68,15,84,200 // andps %xmm0,%xmm9
.byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,201,159,1,0 // minps 0x19fc9(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,5,47,154,1,0 // minps 0x19a2f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32318,10 +31920,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,23,165,1,0 // mulps 0x1a517(%rip),%xmm0 # 3bdf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
- .byte 15,89,13,32,165,1,0 // mulps 0x1a520(%rip),%xmm1 # 3be00 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
+ .byte 15,89,5,125,159,1,0 // mulps 0x19f7d(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
+ .byte 15,89,13,134,159,1,0 // mulps 0x19f86(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,38,165,1,0 // mulps 0x1a526(%rip),%xmm3 # 3be10 <_sk_srcover_bgra_8888_sse2_lowp+0x1220>
+ .byte 15,89,29,140,159,1,0 // mulps 0x19f8c(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -32633,9 +32235,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 21d8a <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 215e4 <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 21d9f <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 215f9 <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -32728,7 +32330,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 21f7c <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 217d6 <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -32739,7 +32341,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 21f62 <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 217bc <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -32870,26 +32472,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,80,156,1,0 // movaps 0x19c50(%rip),%xmm10 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1230>
+ .byte 68,15,40,21,182,150,1,0 // movaps 0x196b6(%rip),%xmm10 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,84,156,1,0 // addps 0x19c54(%rip),%xmm10 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1240>
+ .byte 68,15,88,21,186,150,1,0 // addps 0x196ba(%rip),%xmm10 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,88,156,1,0 // addps 0x19c58(%rip),%xmm10 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x1250>
+ .byte 68,15,88,21,190,150,1,0 // addps 0x196be(%rip),%xmm10 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,92,156,1,0 // addps 0x19c5c(%rip),%xmm10 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x1260>
+ .byte 68,15,88,21,194,150,1,0 // addps 0x196c2(%rip),%xmm10 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,91,156,1,0 // movaps 0x19c5b(%rip),%xmm11 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x1270>
+ .byte 68,15,40,29,193,150,1,0 // movaps 0x196c1(%rip),%xmm11 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,100,150,1,0 // movaps 0x19664(%rip),%xmm11 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,29,202,144,1,0 // movaps 0x190ca(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,86,150,1,0 // movaps 0x19656(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,188,144,1,0 // movaps 0x190bc(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -32924,7 +32526,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,204,155,1,0 // mulps 0x19bcc(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
+ .byte 68,15,89,13,50,150,1,0 // mulps 0x19632(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -32932,7 +32534,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,182,155,1,0 // mulps 0x19bb6(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
+ .byte 68,15,89,21,28,150,1,0 // mulps 0x1961c(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -32940,7 +32542,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,147,149,1,0 // mulps 0x19593(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,249,143,1,0 // mulps 0x18ff9(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32959,7 +32561,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,67,155,1,0 // mulps 0x19b43(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
+ .byte 68,15,89,13,169,149,1,0 // mulps 0x195a9(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -32967,16 +32569,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,45,155,1,0 // mulps 0x19b2d(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
+ .byte 68,15,89,21,147,149,1,0 // mulps 0x19593(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,45,154,1,0 // xorps 0x19a2d(%rip),%xmm9 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 68,15,87,13,147,148,1,0 // xorps 0x19493(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,2,149,1,0 // mulps 0x19502(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,104,143,1,0 // mulps 0x18f68(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32991,7 +32593,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,198,154,1,0 // mulps 0x19ac6(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
+ .byte 68,15,89,13,44,149,1,0 // mulps 0x1952c(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -32999,7 +32601,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,210,153,1,0 // xorps 0x199d2(%rip),%xmm0 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 15,87,5,56,148,1,0 // xorps 0x19438(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33047,7 +32649,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,49,148,1,0 // movaps 0x19431(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,151,142,1,0 // movaps 0x18e97(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -33091,8 +32693,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,170,153,1,0 // addps 0x199aa(%rip),%xmm0 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,162,147,1,0 // movaps 0x193a2(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,5,16,148,1,0 // addps 0x19410(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,8,142,1,0 // movaps 0x18e08(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33105,7 +32707,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,110,147,1,0 // addps 0x1936e(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,5,212,141,1,0 // addps 0x18dd4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33117,8 +32719,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,93,153,1,0 // addps 0x1995d(%rip),%xmm1 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,85,147,1,0 // movaps 0x19355(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,13,195,147,1,0 // addps 0x193c3(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,187,141,1,0 // movaps 0x18dbb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33131,7 +32733,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,32,147,1,0 // addps 0x19320(%rip),%xmm1 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,13,134,141,1,0 // addps 0x18d86(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33143,13 +32745,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,32,153,1,0 // addps 0x19920(%rip),%xmm0 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
- .byte 68,15,40,13,8,147,1,0 // movaps 0x19308(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,5,134,147,1,0 // addps 0x19386(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,110,141,1,0 // movaps 0x18d6e(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,20,153,1,0 // mulps 0x19914(%rip),%xmm9 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,13,236,148,1,0 // addps 0x194ec(%rip),%xmm9 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,13,122,147,1,0 // mulps 0x1937a(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,82,143,1,0 // addps 0x18f52(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33162,16 +32764,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,200,152,1,0 // addps 0x198c8(%rip),%xmm0 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,192,146,1,0 // movaps 0x192c0(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,5,46,147,1,0 // addps 0x1932e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,38,141,1,0 // movaps 0x18d26(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,228,152,1,0 // movaps 0x198e4(%rip),%xmm8 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,5,74,147,1,0 // movaps 0x1934a(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,232,152,1,0 // addps 0x198e8(%rip),%xmm8 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,5,78,147,1,0 // addps 0x1934e(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,140,146,1,0 // addps 0x1928c(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,88,5,242,140,1,0 // addps 0x18cf2(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,224,152,1,0 // addps 0x198e0(%rip),%xmm8 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,70,147,1,0 // addps 0x19346(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33181,17 +32783,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,106,146,1,0 // movaps 0x1926a(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,208,140,1,0 // movaps 0x18cd0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,147,152,1,0 // movaps 0x19893(%rip),%xmm10 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,21,249,146,1,0 // movaps 0x192f9(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,151,152,1,0 // addps 0x19897(%rip),%xmm10 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,21,253,146,1,0 // addps 0x192fd(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,147,152,1,0 // addps 0x19893(%rip),%xmm10 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,21,249,146,1,0 // addps 0x192f9(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33203,11 +32805,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,99,152,1,0 // addps 0x19863(%rip),%xmm0 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 15,88,5,201,146,1,0 // addps 0x192c9(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,51,152,1,0 // mulps 0x19833(%rip),%xmm8 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,5,11,148,1,0 // addps 0x1940b(%rip),%xmm8 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,5,153,146,1,0 // mulps 0x19299(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,113,142,1,0 // addps 0x18e71(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33220,13 +32822,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,246,151,1,0 // addps 0x197f6(%rip),%xmm1 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
- .byte 68,15,40,13,222,145,1,0 // movaps 0x191de(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,13,92,146,1,0 // addps 0x1925c(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,68,140,1,0 // movaps 0x18c44(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,234,151,1,0 // mulps 0x197ea(%rip),%xmm9 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,13,194,147,1,0 // addps 0x193c2(%rip),%xmm9 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,13,80,146,1,0 // mulps 0x19250(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,40,142,1,0 // addps 0x18e28(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33239,16 +32841,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,157,151,1,0 // addps 0x1979d(%rip),%xmm1 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,149,145,1,0 // movaps 0x19195(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,13,3,146,1,0 // addps 0x19203(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,251,139,1,0 // movaps 0x18bfb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,185,151,1,0 // movaps 0x197b9(%rip),%xmm8 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,5,31,146,1,0 // movaps 0x1921f(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,189,151,1,0 // addps 0x197bd(%rip),%xmm8 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,5,35,146,1,0 // addps 0x19223(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,97,145,1,0 // addps 0x19161(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,88,5,199,139,1,0 // addps 0x18bc7(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,181,151,1,0 // addps 0x197b5(%rip),%xmm8 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,27,146,1,0 // addps 0x1921b(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33258,17 +32860,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,63,145,1,0 // movaps 0x1913f(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,165,139,1,0 // movaps 0x18ba5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,103,151,1,0 // movaps 0x19767(%rip),%xmm10 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,21,205,145,1,0 // movaps 0x191cd(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,107,151,1,0 // addps 0x1976b(%rip),%xmm10 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,21,209,145,1,0 // addps 0x191d1(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,103,151,1,0 // addps 0x19767(%rip),%xmm10 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,21,205,145,1,0 // addps 0x191cd(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33280,11 +32882,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,54,151,1,0 // addps 0x19736(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 15,88,13,156,145,1,0 // addps 0x1919c(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,6,151,1,0 // mulps 0x19706(%rip),%xmm8 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,5,222,146,1,0 // addps 0x192de(%rip),%xmm8 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,5,108,145,1,0 // mulps 0x1916c(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,68,141,1,0 // addps 0x18d44(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33395,7 +32997,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,241,149,1,0 // movaps 0x195f1(%rip),%xmm4 # 3bef0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
+ .byte 15,40,37,87,144,1,0 // movaps 0x19057(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -33434,7 +33036,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,72,149,1,0 // movdqa 0x19548(%rip),%xmm12 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,68,15,111,37,174,143,1,0 // movdqa 0x18fae(%rip),%xmm12 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -33457,7 +33059,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,140,142,1,0 // movdqa 0x18e8c(%rip),%xmm4 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,111,37,242,136,1,0 // movdqa 0x188f2(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -33630,7 +33232,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,87,145,1,0 // movdqa 0x19157(%rip),%xmm5 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,45,189,139,1,0 // movdqa 0x18bbd(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33651,7 +33253,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,168,138,1,0 // movdqa 0x18aa8(%rip),%xmm7 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,111,61,14,133,1,0 // movdqa 0x1850e(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -33717,7 +33319,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,147,143,1,0 // movdqa 0x18f93(%rip),%xmm1 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,13,249,137,1,0 // movdqa 0x189f9(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -33738,7 +33340,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,222,136,1,0 // movdqa 0x188de(%rip),%xmm2 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,111,21,68,131,1,0 // movdqa 0x18344(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -33865,7 +33467,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,241,140,1,0 // movaps 0x18cf1(%rip),%xmm3 # 3bef0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
+ .byte 15,40,29,87,135,1,0 // movaps 0x18757(%rip),%xmm3 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -33922,7 +33524,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,240,139,1,0 // movdqa 0x18bf0(%rip),%xmm11 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,68,15,111,29,86,134,1,0 // movdqa 0x18656(%rip),%xmm11 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -33944,7 +33546,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,56,133,1,0 // movdqa 0x18538(%rip),%xmm10 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,21,158,127,1,0 // movdqa 0x17f9e(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -33962,7 +33564,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,38,139,1,0 // psubd 0x18b26(%rip),%xmm3 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,29,140,133,1,0 // psubd 0x1858c(%rip),%xmm3 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -34017,7 +33619,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,6,138,1,0 // psubd 0x18a06(%rip),%xmm5 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,45,108,132,1,0 // psubd 0x1846c(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -34142,7 +33744,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,42,129,1,0 // movdqa 0x1812a(%rip),%xmm7 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,111,61,144,123,1,0 // movdqa 0x17b90(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -34228,7 +33830,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,110,127,1,0 // movdqa 0x17f6e(%rip),%xmm10 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,21,212,121,1,0 // movdqa 0x179d4(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34324,7 +33926,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,200,131,1,0 // movdqa 0x183c8(%rip),%xmm2 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,21,46,126,1,0 // movdqa 0x17e2e(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -34345,7 +33947,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,23,125,1,0 // movdqa 0x17d17(%rip),%xmm4 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,111,37,125,119,1,0 // movdqa 0x1777d(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -34417,7 +34019,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,243,129,1,0 // psubd 0x181f3(%rip),%xmm2 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,21,89,124,1,0 // psubd 0x17c59(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34451,7 +34053,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,63,129,1,0 // psubd 0x1813f(%rip),%xmm1 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,13,165,123,1,0 // psubd 0x17ba5(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34516,7 +34118,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,214,127,1,0 // movdqa 0x17fd6(%rip),%xmm4 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,37,60,122,1,0 // movdqa 0x17a3c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -34537,7 +34139,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,39,121,1,0 // movdqa 0x17927(%rip),%xmm3 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,111,29,141,115,1,0 // movdqa 0x1738d(%rip),%xmm3 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34609,7 +34211,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,7,126,1,0 // psubd 0x17e07(%rip),%xmm0 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,5,109,120,1,0 // psubd 0x1786d(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34627,7 +34229,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,85,119,1,0 // paddd 0x17755(%rip),%xmm0 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,5,187,113,1,0 // paddd 0x171bb(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34643,7 +34245,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,78,125,1,0 // psubd 0x17d4e(%rip),%xmm0 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,5,180,119,1,0 // psubd 0x177b4(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34661,7 +34263,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,156,118,1,0 // paddd 0x1769c(%rip),%xmm0 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,5,2,113,1,0 // paddd 0x17102(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -34724,7 +34326,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,89,117,1,0 // movaps 0x17559(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,191,111,1,0 // movaps 0x16fbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -34743,156 +34345,21 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,182,123,1,0 // movaps 0x17bb6(%rip),%xmm0 # 3bf20 <_sk_srcover_bgra_8888_sse2_lowp+0x1330>
+ .byte 15,40,5,28,118,1,0 // movaps 0x1761c(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,188,123,1,0 // addps 0x17bbc(%rip),%xmm0 # 3bf30 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
+ .byte 15,88,5,34,118,1,0 // addps 0x17622(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,194,123,1,0 // addps 0x17bc2(%rip),%xmm0 # 3bf40 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
+ .byte 15,88,5,40,118,1,0 // addps 0x17628(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,200,123,1,0 // addps 0x17bc8(%rip),%xmm0 # 3bf50 <_sk_srcover_bgra_8888_sse2_lowp+0x1360>
+ .byte 15,88,5,46,118,1,0 // addps 0x1762e(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,206,123,1,0 // addps 0x17bce(%rip),%xmm0 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x1370>
+ .byte 15,88,5,52,118,1,0 // addps 0x17634(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 255,224 // jmpq *%rax
-HIDDEN _sk_bilerp_clamp_8888_sse41
-.globl _sk_bilerp_clamp_8888_sse41
-FUNCTION(_sk_bilerp_clamp_8888_sse41)
-_sk_bilerp_clamp_8888_sse41:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,129,236,168,0,0,0 // sub $0xa8,%rsp
- .byte 15,41,125,160 // movaps %xmm7,-0x60(%rbp)
- .byte 15,41,117,176 // movaps %xmm6,-0x50(%rbp)
- .byte 15,41,109,192 // movaps %xmm5,-0x40(%rbp)
- .byte 15,41,101,208 // movaps %xmm4,-0x30(%rbp)
- .byte 76,141,69,224 // lea -0x20(%rbp),%r8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,180,116,1,0 // movaps 0x174b4(%rip),%xmm3 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,40,216 // movaps %xmm0,%xmm11
- .byte 68,15,88,219 // addps %xmm3,%xmm11
- .byte 102,65,15,58,8,211,1 // roundps $0x1,%xmm11,%xmm2
- .byte 68,15,92,218 // subps %xmm2,%xmm11
- .byte 15,41,141,80,255,255,255 // movaps %xmm1,-0xb0(%rbp)
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 102,15,58,8,203,1 // roundps $0x1,%xmm3,%xmm1
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 73,185,0,0,0,191,0,0,0,63 // movabs $0x3f000000bf000000,%r9
- .byte 77,137,8 // mov %r9,(%r8)
- .byte 76,141,77,232 // lea -0x18(%rbp),%r9
- .byte 15,40,13,134,116,1,0 // movaps 0x17486(%rip),%xmm1 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 65,15,92,211 // subps %xmm11,%xmm2
- .byte 15,41,149,64,255,255,255 // movaps %xmm2,-0xc0(%rbp)
- .byte 15,41,157,96,255,255,255 // movaps %xmm3,-0xa0(%rbp)
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,41,77,144 // movaps %xmm1,-0x70(%rbp)
- .byte 243,68,15,16,112,12 // movss 0xc(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 102,68,15,254,241 // paddd %xmm1,%xmm14
- .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,254,209 // paddd %xmm1,%xmm2
- .byte 102,15,127,149,112,255,255,255 // movdqa %xmm2,-0x90(%rbp)
- .byte 76,139,16 // mov (%rax),%r10
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,127,77,128 // movdqa %xmm1,-0x80(%rbp)
- .byte 243,15,16,13,131,107,1,0 // movss 0x16b83(%rip),%xmm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,40,45,45,118,1,0 // movaps 0x1762d(%rip),%xmm5 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 235,5 // jmp 24486 <_sk_bilerp_clamp_8888_sse41+0xe7>
- .byte 243,65,15,16,8 // movss (%r8),%xmm1
- .byte 15,46,13,155,107,1,0 // ucomiss 0x16b9b(%rip),%xmm1 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,141,80,255,255,255 // addps -0xb0(%rbp),%xmm1
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 68,15,40,149,96,255,255,255 // movaps -0xa0(%rbp),%xmm10
- .byte 119,5 // ja 244ad <_sk_bilerp_clamp_8888_sse41+0x10e>
- .byte 68,15,40,85,144 // movaps -0x70(%rbp),%xmm10
- .byte 15,93,165,112,255,255,255 // minps -0x90(%rbp),%xmm4
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,56,64,77,128 // pmulld -0x80(%rbp),%xmm1
- .byte 69,49,219 // xor %r11d,%r11d
- .byte 243,70,15,16,124,29,224 // movss -0x20(%rbp,%r11,1),%xmm15
- .byte 65,15,40,231 // movaps %xmm15,%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,244 // maxps %xmm4,%xmm6
- .byte 65,15,93,246 // minps %xmm14,%xmm6
- .byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
- .byte 102,15,254,225 // paddd %xmm1,%xmm4
- .byte 102,72,15,58,22,224,1 // pextrq $0x1,%xmm4,%rax
- .byte 65,137,198 // mov %eax,%r14d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,72,15,126,227 // movq %xmm4,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,67,15,110,60,186 // movd (%r10,%r15,4),%xmm7
- .byte 102,65,15,58,34,60,154,1 // pinsrd $0x1,(%r10,%rbx,4),%xmm7
- .byte 102,67,15,58,34,60,178,2 // pinsrd $0x2,(%r10,%r14,4),%xmm7
- .byte 102,65,15,58,34,60,130,3 // pinsrd $0x3,(%r10,%rax,4),%xmm7
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,219,37,23,116,1,0 // pand 0x17417(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
- .byte 68,15,91,236 // cvtdq2ps %xmm4,%xmm13
- .byte 68,15,89,237 // mulps %xmm5,%xmm13
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,18,116,1,0 // pshufb 0x17412(%rip),%xmm4 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
- .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,15,116,1,0 // pshufb 0x1740f(%rip),%xmm4 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 68,15,91,231 // cvtdq2ps %xmm7,%xmm12
- .byte 68,15,89,229 // mulps %xmm5,%xmm12
- .byte 68,15,46,61,188,106,1,0 // ucomiss 0x16abc(%rip),%xmm15 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 65,15,40,251 // movaps %xmm11,%xmm7
- .byte 119,7 // ja 24579 <_sk_bilerp_clamp_8888_sse41+0x1da>
- .byte 15,40,189,64,255,255,255 // movaps -0xc0(%rbp),%xmm7
- .byte 65,15,89,250 // mulps %xmm10,%xmm7
- .byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 65,15,89,252 // mulps %xmm12,%xmm7
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 73,131,195,4 // add $0x4,%r11
- .byte 73,131,251,8 // cmp $0x8,%r11
- .byte 15,133,26,255,255,255 // jne 244c1 <_sk_bilerp_clamp_8888_sse41+0x122>
- .byte 73,131,192,4 // add $0x4,%r8
- .byte 77,57,200 // cmp %r9,%r8
- .byte 15,133,205,254,255,255 // jne 24481 <_sk_bilerp_clamp_8888_sse41+0xe2>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,40,101,208 // movaps -0x30(%rbp),%xmm4
- .byte 15,40,109,192 // movaps -0x40(%rbp),%xmm5
- .byte 15,40,117,176 // movaps -0x50(%rbp),%xmm6
- .byte 15,40,125,160 // movaps -0x60(%rbp),%xmm7
- .byte 255,208 // callq *%rax
- .byte 72,129,196,168,0,0,0 // add $0xa8,%rsp
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
HIDDEN _sk_start_pipeline_sse2
.globl _sk_start_pipeline_sse2
FUNCTION(_sk_start_pipeline_sse2)
@@ -34914,13 +34381,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 24694 <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 23caf <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 24662 <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 23c7d <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -34939,10 +34406,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2462b <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 23c46 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2468b <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 23ca6 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34956,7 +34423,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2461d <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 23c38 <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -34985,9 +34452,9 @@ _sk_seed_shader_sse2:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,181,113,1,0 // addps 0x171b5(%rip),%xmm1 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,13,90,110,1,0 // addps 0x16e5a(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,188,113,1,0 // movaps 0x171bc(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,97,110,1,0 // movaps 0x16e61(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -35002,18 +34469,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,101,113,1,0 // paddd 0x17165(%rip),%xmm8 # 3b860 <_sk_srcover_bgra_8888_sse2_lowp+0xc70>
+ .byte 102,68,15,254,5,10,110,1,0 // paddd 0x16e0a(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,140,113,1,0 // movdqa 0x1718c(%rip),%xmm10 # 3b8a0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 102,68,15,111,21,49,110,1,0 // movdqa 0x16e31(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,120,113,1,0 // movdqa 0x17178(%rip),%xmm12 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc0>
- .byte 102,68,15,111,45,127,113,1,0 // movdqa 0x1717f(%rip),%xmm13 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,37,29,110,1,0 // movdqa 0x16e1d(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
+ .byte 102,68,15,111,45,36,110,1,0 // movdqa 0x16e24(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -35029,8 +34496,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,58,113,1,0 // mulps 0x1713a(%rip),%xmm8 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
- .byte 68,15,88,5,66,113,1,0 // addps 0x17142(%rip),%xmm8 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf0>
+ .byte 68,15,89,5,223,109,1,0 // mulps 0x16ddf(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 68,15,88,5,231,109,1,0 // addps 0x16de7(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -35072,7 +34539,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,120,112,1,0 // movaps 0x17078(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,29,109,1,0 // movaps 0x16d1d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -35083,7 +34550,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,100,112,1,0 // movaps 0x17064(%rip),%xmm0 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,5,9,109,1,0 // movaps 0x16d09(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -35129,7 +34596,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,20,112,1,0 // movaps 0x17014(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,185,108,1,0 // movaps 0x16cb9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35154,7 +34621,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,199,111,1,0 // movaps 0x16fc7(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,108,108,1,0 // movaps 0x16c6c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -35201,7 +34668,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,91,111,1,0 // movaps 0x16f5b(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,0,108,1,0 // movaps 0x16c00(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -35214,7 +34681,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,59,111,1,0 // movaps 0x16f3b(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,224,107,1,0 // movaps 0x16be0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -35231,7 +34698,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,14,111,1,0 // movaps 0x16f0e(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,179,107,1,0 // movaps 0x16bb3(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35251,7 +34718,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,210,110,1,0 // movaps 0x16ed2(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,119,107,1,0 // movaps 0x16b77(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -35279,7 +34746,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,150,110,1,0 // movaps 0x16e96(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,59,107,1,0 // movaps 0x16b3b(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -35317,7 +34784,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,23,110,1,0 // movaps 0x16e17(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,188,106,1,0 // movaps 0x16abc(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -35359,7 +34826,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,163,109,1,0 // movaps 0x16da3(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,72,106,1,0 // movaps 0x16a48(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -35407,7 +34874,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,254,108,1,0 // movaps 0x16cfe(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,163,105,1,0 // movaps 0x169a3(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35441,7 +34908,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,147,108,1,0 // movaps 0x16c93(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,56,105,1,0 // movaps 0x16938(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35478,7 +34945,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,29,108,1,0 // movaps 0x16c1d(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,194,104,1,0 // movaps 0x168c2(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35506,7 +34973,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,205,107,1,0 // movaps 0x16bcd(%rip),%xmm2 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,21,114,104,1,0 // movaps 0x16872(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35519,7 +34986,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,176,107,1,0 // movaps 0x16bb0(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,85,104,1,0 // movaps 0x16855(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35614,7 +35081,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,88,106,1,0 // movaps 0x16a58(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,253,102,1,0 // movaps 0x166fd(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35706,7 +35173,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,1,105,1,0 // movaps 0x16901(%rip),%xmm11 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,29,166,101,1,0 // movaps 0x165a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -35794,7 +35261,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,191,103,1,0 // movaps 0x167bf(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,100,100,1,0 // movaps 0x16464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35885,7 +35352,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,108,102,1,0 // movaps 0x1666c(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,17,99,1,0 // movaps 0x16311(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35898,10 +35365,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,150,102,1,0 // movaps 0x16696(%rip),%xmm14 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
+ .byte 68,15,40,53,59,99,1,0 // movaps 0x1633b(%rip),%xmm14 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,150,102,1,0 // movaps 0x16696(%rip),%xmm10 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
+ .byte 68,15,40,21,59,99,1,0 // movaps 0x1633b(%rip),%xmm10 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -36046,7 +35513,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,41,100,1,0 // movaps 0x16429(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,206,96,1,0 // movaps 0x160ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -36094,12 +35561,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,230,99,1,0 // movaps 0x163e6(%rip),%xmm15 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,61,139,96,1,0 // movaps 0x1608b(%rip),%xmm15 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,235,99,1,0 // movaps 0x163eb(%rip),%xmm0 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 15,40,5,144,96,1,0 // movaps 0x16090(%rip),%xmm0 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,237,99,1,0 // movaps 0x163ed(%rip),%xmm14 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,53,146,96,1,0 // movaps 0x16092(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -36277,14 +35744,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,63,97,1,0 // movaps 0x1613f(%rip),%xmm8 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,5,228,93,1,0 // movaps 0x15de4(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,65,97,1,0 // movaps 0x16141(%rip),%xmm1 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 15,40,13,230,93,1,0 // movaps 0x15de6(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,64,97,1,0 // movaps 0x16140(%rip),%xmm12 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,37,229,93,1,0 // movaps 0x15de5(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -36329,7 +35796,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,245,95,1,0 // movaps 0x15ff5(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,154,92,1,0 // movaps 0x15c9a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -36430,14 +35897,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,3,95,1,0 // movaps 0x15f03(%rip),%xmm13 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,45,168,91,1,0 // movaps 0x15ba8(%rip),%xmm13 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,3,95,1,0 // movaps 0x15f03(%rip),%xmm14 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 68,15,40,53,168,91,1,0 // movaps 0x15ba8(%rip),%xmm14 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,255,94,1,0 // movaps 0x15eff(%rip),%xmm11 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,29,164,91,1,0 // movaps 0x15ba4(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36445,7 +35912,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,59,94,1,0 // movaps 0x15e3b(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,224,90,1,0 // movaps 0x15ae0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -36581,15 +36048,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,194,92,1,0 // movaps 0x15cc2(%rip),%xmm12 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,37,103,89,1,0 // movaps 0x15967(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,194,92,1,0 // movaps 0x15cc2(%rip),%xmm13 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
+ .byte 68,15,40,45,103,89,1,0 // movaps 0x15967(%rip),%xmm13 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,190,92,1,0 // movaps 0x15cbe(%rip),%xmm11 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
- .byte 68,15,40,5,22,92,1,0 // movaps 0x15c16(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,29,99,89,1,0 // movaps 0x15963(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,5,187,88,1,0 // movaps 0x158bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -36731,10 +36198,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 25f8a <_sk_srcover_rgba_8888_sse2+0x129>
+ .byte 15,133,4,1,0,0 // jne 255a5 <_sk_srcover_rgba_8888_sse2+0x129>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,169,90,1,0 // movdqa 0x15aa9(%rip),%xmm6 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,53,78,87,1,0 // movdqa 0x1574e(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -36749,9 +36216,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,186,89,1,0 // movaps 0x159ba(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,95,86,1,0 // movaps 0x1565f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,142,90,1,0 // movaps 0x15a8e(%rip),%xmm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,37,51,87,1,0 // movaps 0x15733(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -36788,7 +36255,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,78 // jne 25fc2 <_sk_srcover_rgba_8888_sse2+0x161>
+ .byte 117,78 // jne 255dd <_sk_srcover_rgba_8888_sse2+0x161>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -36798,32 +36265,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,88 // je 25fef <_sk_srcover_rgba_8888_sse2+0x18e>
+ .byte 116,88 // je 2560a <_sk_srcover_rgba_8888_sse2+0x18e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 25fb7 <_sk_srcover_rgba_8888_sse2+0x156>
+ .byte 116,22 // je 255d2 <_sk_srcover_rgba_8888_sse2+0x156>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,225,254,255,255 // jne 25e8c <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 15,133,225,254,255,255 // jne 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0
- .byte 233,202,254,255,255 // jmpq 25e8c <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 233,202,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 25ffa <_sk_srcover_rgba_8888_sse2+0x199>
+ .byte 116,43 // je 25615 <_sk_srcover_rgba_8888_sse2+0x199>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 25fe7 <_sk_srcover_rgba_8888_sse2+0x186>
+ .byte 116,18 // je 25602 <_sk_srcover_rgba_8888_sse2+0x186>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,159 // jne 25f7a <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 117,159 // jne 25595 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,139 // jmp 25f7a <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 235,139 // jmp 25595 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,146,254,255,255 // jmpq 25e8c <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 233,146,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,117,255,255,255 // jmpq 25f7a <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 233,117,255,255,255 // jmpq 25595 <_sk_srcover_rgba_8888_sse2+0x119>
HIDDEN _sk_srcover_bgra_8888_sse2
.globl _sk_srcover_bgra_8888_sse2
@@ -36838,10 +36305,10 @@ _sk_srcover_bgra_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 2612e <_sk_srcover_bgra_8888_sse2+0x129>
+ .byte 15,133,4,1,0,0 // jne 25749 <_sk_srcover_bgra_8888_sse2+0x129>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,5,89,1,0 // movdqa 0x15905(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,37,170,85,1,0 // movdqa 0x155aa(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
@@ -36856,9 +36323,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,91,231 // cvtdq2ps %xmm7,%xmm4
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,22,88,1,0 // movaps 0x15816(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,187,84,1,0 // movaps 0x154bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,234,88,1,0 // movaps 0x158ea(%rip),%xmm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,37,143,85,1,0 // movaps 0x1558f(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -36895,7 +36362,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,78 // jne 26166 <_sk_srcover_bgra_8888_sse2+0x161>
+ .byte 117,78 // jne 25781 <_sk_srcover_bgra_8888_sse2+0x161>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -36905,32 +36372,32 @@ _sk_srcover_bgra_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,88 // je 26193 <_sk_srcover_bgra_8888_sse2+0x18e>
+ .byte 116,88 // je 257ae <_sk_srcover_bgra_8888_sse2+0x18e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 2615b <_sk_srcover_bgra_8888_sse2+0x156>
+ .byte 116,22 // je 25776 <_sk_srcover_bgra_8888_sse2+0x156>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,225,254,255,255 // jne 26030 <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 15,133,225,254,255,255 // jne 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0
- .byte 233,202,254,255,255 // jmpq 26030 <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 233,202,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 2619e <_sk_srcover_bgra_8888_sse2+0x199>
+ .byte 116,43 // je 257b9 <_sk_srcover_bgra_8888_sse2+0x199>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 2618b <_sk_srcover_bgra_8888_sse2+0x186>
+ .byte 116,18 // je 257a6 <_sk_srcover_bgra_8888_sse2+0x186>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,159 // jne 2611e <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 117,159 // jne 25739 <_sk_srcover_bgra_8888_sse2+0x119>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,139 // jmp 2611e <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 235,139 // jmp 25739 <_sk_srcover_bgra_8888_sse2+0x119>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,146,254,255,255 // jmpq 26030 <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 233,146,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,117,255,255,255 // jmpq 2611e <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 233,117,255,255,255 // jmpq 25739 <_sk_srcover_bgra_8888_sse2+0x119>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -36948,7 +36415,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,199,86,1,0 // movaps 0x156c7(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,108,83,1,0 // movaps 0x1536c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36960,7 +36427,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,172,86,1,0 // minps 0x156ac(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,93,29,81,83,1,0 // minps 0x15351(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36971,7 +36438,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,152,86,1,0 // minps 0x15698(%rip),%xmm7 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,93,61,61,83,1,0 // minps 0x1533d(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -37006,7 +36473,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,84,86,1,0 // movaps 0x15654(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,249,82,1,0 // movaps 0x152f9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -37067,10 +36534,10 @@ HIDDEN _sk_unpremul_sse2
.globl _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
- .byte 68,15,40,5,226,85,1,0 // movaps 0x155e2(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,135,82,1,0 // movaps 0x15287(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,193,86,1,0,1 // cmpltps 0x156c1(%rip),%xmm9 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
+ .byte 68,15,194,13,102,83,1,0,1 // cmpltps 0x15366(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -37082,20 +36549,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,181,86,1,0 // movaps 0x156b5(%rip),%xmm8 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0xda0>
+ .byte 68,15,40,5,90,83,1,0 // movaps 0x1535a(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,29,86,1,0 // movaps 0x1561d(%rip),%xmm9 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,13,194,82,1,0 // movaps 0x152c2(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,157,86,1,0 // movaps 0x1569d(%rip),%xmm10 # 3b9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,21,66,83,1,0 // movaps 0x15342(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,157,86,1,0 // movaps 0x1569d(%rip),%xmm11 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,29,66,83,1,0 // movaps 0x15342(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,161,86,1,0 // movaps 0x156a1(%rip),%xmm12 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
+ .byte 68,15,40,37,70,83,1,0 // movaps 0x15346(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -37131,20 +36598,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,242,85,1,0 // movaps 0x155f2(%rip),%xmm8 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0xda0>
+ .byte 68,15,40,5,151,82,1,0 // movaps 0x15297(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,90,85,1,0 // movaps 0x1555a(%rip),%xmm9 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,13,255,81,1,0 // movaps 0x151ff(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,218,85,1,0 // movaps 0x155da(%rip),%xmm10 # 3b9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,21,127,82,1,0 // movaps 0x1527f(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,218,85,1,0 // movaps 0x155da(%rip),%xmm11 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
+ .byte 68,15,40,29,127,82,1,0 // movaps 0x1527f(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,222,85,1,0 // movaps 0x155de(%rip),%xmm12 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
+ .byte 68,15,40,37,131,82,1,0 // movaps 0x15283(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -37181,22 +36648,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,107,85,1,0 // movaps 0x1556b(%rip),%xmm8 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0xde0>
+ .byte 68,15,40,5,16,82,1,0 // movaps 0x15210(%rip),%xmm8 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,107,85,1,0 // movaps 0x1556b(%rip),%xmm9 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf0>
+ .byte 68,15,40,13,16,82,1,0 // movaps 0x15210(%rip),%xmm9 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,107,85,1,0 // movaps 0x1556b(%rip),%xmm10 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe00>
+ .byte 68,15,40,21,16,82,1,0 // movaps 0x15210(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,107,85,1,0 // movaps 0x1556b(%rip),%xmm11 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0xe10>
+ .byte 68,15,40,29,16,82,1,0 // movaps 0x15210(%rip),%xmm11 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,111,85,1,0 // movaps 0x1556f(%rip),%xmm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0xe20>
+ .byte 68,15,40,37,20,82,1,0 // movaps 0x15214(%rip),%xmm12 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,107,85,1,0 // movaps 0x1556b(%rip),%xmm15 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0xe30>
+ .byte 68,15,40,61,16,82,1,0 // movaps 0x15210(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -37248,7 +36715,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,30,83,1,0 // movaps 0x1531e(%rip),%xmm13 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,45,195,79,1,0 // movaps 0x14fc3(%rip),%xmm13 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -37257,30 +36724,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,148,84,1,0 // andps 0x15494(%rip),%xmm14 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0xe40>
+ .byte 68,15,84,53,57,81,1,0 // andps 0x15139(%rip),%xmm14 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,135,84,1,0 // movaps 0x15487(%rip),%xmm12 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0xe50>
+ .byte 68,15,40,37,44,81,1,0 // movaps 0x1512c(%rip),%xmm12 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,131,84,1,0 // addps 0x15483(%rip),%xmm8 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xe60>
+ .byte 68,15,88,5,40,81,1,0 // addps 0x15128(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,116,84,1,0 // mulps 0x15474(%rip),%xmm0 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
+ .byte 15,89,5,25,81,1,0 // mulps 0x15119(%rip),%xmm0 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,119,82,1,0 // movaps 0x15277(%rip),%xmm9 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,13,28,79,1,0 // movaps 0x14f1c(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -37304,7 +36771,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,38,82,1,0 // movaps 0x15226(%rip),%xmm9 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,13,203,78,1,0 // movaps 0x14ecb(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -37321,28 +36788,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,207,83,1,0 // movaps 0x153cf(%rip),%xmm0 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xe80>
+ .byte 15,40,5,116,80,1,0 // movaps 0x15074(%rip),%xmm0 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,215,81,1,0 // andps 0x151d7(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,84,29,124,78,1,0 // andps 0x14e7c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,185,83,1,0 // movaps 0x153b9(%rip),%xmm13 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 68,15,40,45,94,80,1,0 // movaps 0x1505e(%rip),%xmm13 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,121,83,1,0 // movaps 0x15379(%rip),%xmm2 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
+ .byte 15,40,21,30,80,1,0 // movaps 0x1501e(%rip),%xmm2 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,57,83,1,0 // movaps 0x15339(%rip),%xmm1 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0xe40>
+ .byte 15,40,13,222,79,1,0 // movaps 0x14fde(%rip),%xmm1 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,79,83,1,0 // movaps 0x1534f(%rip),%xmm5 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xe60>
+ .byte 15,40,45,244,79,1,0 // movaps 0x14ff4(%rip),%xmm5 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -37365,7 +36832,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,52,81,1,0 // andps 0x15134(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,84,29,217,77,1,0 // andps 0x14dd9(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -37395,12 +36862,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,188,82,1,0 // addps 0x152bc(%rip),%xmm6 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 15,88,53,97,79,1,0 // addps 0x14f61(%rip),%xmm6 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,167,80,1,0 // andps 0x150a7(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,84,29,76,77,1,0 // andps 0x14d4c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -37464,13 +36931,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 268ea <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 25f05 <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,122,80,1,0 // pand 0x1507a(%rip),%xmm8 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,68,15,219,5,31,77,1,0 // pand 0x14d1f(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,206,81,1,0 // mulps 0x151ce(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,89,5,115,78,1,0 // mulps 0x14e73(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -37481,12 +36948,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 26934 <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 25f4f <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 26919 <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 25f34 <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 268bd <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 25ed8 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37495,10 +36962,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 268bd <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 25ed8 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 268bd <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 25ed8 <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -37512,20 +36979,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 26a0f <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 2602a <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,58,81,1,0 // movdqa 0x1513a(%rip),%xmm8 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,68,15,111,5,223,77,1,0 // movdqa 0x14ddf(%rip),%xmm8 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,57,81,1,0 // mulps 0x15139(%rip),%xmm8 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,68,15,111,13,64,81,1,0 // movdqa 0x15140(%rip),%xmm9 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 68,15,89,5,222,77,1,0 // mulps 0x14dde(%rip),%xmm8 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,68,15,111,13,229,77,1,0 // movdqa 0x14de5(%rip),%xmm9 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,63,81,1,0 // mulps 0x1513f(%rip),%xmm9 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,68,15,219,21,70,81,1,0 // pand 0x15146(%rip),%xmm10 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 68,15,89,13,228,77,1,0 // mulps 0x14de4(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,21,235,77,1,0 // pand 0x14deb(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,74,81,1,0 // mulps 0x1514a(%rip),%xmm10 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 68,15,89,21,239,77,1,0 // mulps 0x14def(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -37552,22 +37019,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 26a58 <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 26073 <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 26a42 <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 2605d <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 2696d <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 25f88 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 2696d <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 2696d <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -37602,13 +37069,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 26b08 <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 26123 <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,112,78,1,0 // pand 0x14e70(%rip),%xmm8 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,68,15,219,5,21,75,1,0 // pand 0x14b15(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,196,79,1,0 // mulps 0x14fc4(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,89,5,105,76,1,0 // mulps 0x14c69(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37626,12 +37093,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 26b55 <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 26170 <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 26b37 <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 26152 <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 26ac7 <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 260e2 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37640,10 +37107,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 26ac7 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 26ac7 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -37657,20 +37124,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 26c30 <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 2624b <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,25,79,1,0 // movdqa 0x14f19(%rip),%xmm9 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,68,15,111,13,190,75,1,0 // movdqa 0x14bbe(%rip),%xmm9 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,24,79,1,0 // mulps 0x14f18(%rip),%xmm9 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,68,15,111,21,31,79,1,0 // movdqa 0x14f1f(%rip),%xmm10 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 68,15,89,13,189,75,1,0 // mulps 0x14bbd(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,68,15,111,21,196,75,1,0 // movdqa 0x14bc4(%rip),%xmm10 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,30,79,1,0 // mulps 0x14f1e(%rip),%xmm11 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,68,15,219,5,37,79,1,0 // pand 0x14f25(%rip),%xmm8 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 68,15,89,29,195,75,1,0 // mulps 0x14bc3(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,5,202,75,1,0 // pand 0x14bca(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,41,79,1,0 // mulps 0x14f29(%rip),%xmm8 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 68,15,89,5,206,75,1,0 // mulps 0x14bce(%rip),%xmm8 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -37699,22 +37166,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 26c79 <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 26294 <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 26c63 <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 2627e <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 26b8e <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 261a9 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 26b8e <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 26b8e <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -37723,11 +37190,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 26db8 <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 263d3 <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,152,76,1,0 // movdqa 0x14c98(%rip),%xmm8 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,68,15,111,5,61,73,1,0 // movdqa 0x1493d(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -37783,7 +37250,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,239,76,1,0 // mulps 0x14cef(%rip),%xmm3 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,29,148,73,1,0 // mulps 0x14994(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37791,18 +37258,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 26df2 <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 2640d <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 26de7 <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 26402 <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 26c9c <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 262b7 <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 26c9c <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 26c9c <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -37812,7 +37279,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 26f70 <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 2658b <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -37823,7 +37290,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,201,76,1,0 // movdqa 0x14cc9(%rip),%xmm2 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
+ .byte 102,15,111,21,110,73,1,0 // movdqa 0x1496e(%rip),%xmm2 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -37884,23 +37351,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,199,75,1,0 // mulps 0x14bc7(%rip),%xmm3 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
+ .byte 15,89,29,108,72,1,0 // mulps 0x1486c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26f89 <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 265a4 <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 26e20 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 26e20 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 2643b <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 26e20 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -37910,7 +37377,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 2710d <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 26728 <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37925,7 +37392,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,11,75,1,0 // movdqa 0x14b0b(%rip),%xmm8 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,5,176,71,1,0 // movdqa 0x147b0(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -37980,7 +37447,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,136,71,1,0 // movaps 0x14788(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,45,68,1,0 // movaps 0x1442d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37988,21 +37455,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 27133 <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 2674e <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 26fe2 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 27164 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 2677f <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 26fe2 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 26fe2 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -38015,9 +37482,9 @@ _sk_byte_tables_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,8,71,1,0 // movaps 0x14708(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,173,67,1,0 // movaps 0x143ad(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,220,71,1,0 // movaps 0x147dc(%rip),%xmm10 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,21,129,68,1,0 // movaps 0x14481(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -38044,7 +37511,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,155,72,1,0 // movaps 0x1489b(%rip),%xmm11 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,29,64,69,1,0 // movaps 0x14540(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -38148,7 +37615,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,4,69,1,0 // movaps 0x14504(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,169,65,1,0 // movaps 0x141a9(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,218 // minps %xmm10,%xmm11
.byte 69,15,89,217 // mulps %xmm9,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
@@ -38176,7 +37643,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,159,70,1,0 // movaps 0x1469f(%rip),%xmm11 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,29,68,67,1,0 // movaps 0x14344(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -38250,7 +37717,7 @@ _sk_table_r_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,128,67,1,0 // minps 0x14380(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,37,64,1,0 // minps 0x14025(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0
@@ -38283,7 +37750,7 @@ _sk_table_g_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,7,67,1,0 // minps 0x14307(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,172,63,1,0 // minps 0x13fac(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm1
@@ -38316,7 +37783,7 @@ _sk_table_b_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,142,66,1,0 // minps 0x1428e(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,51,63,1,0 // minps 0x13f33(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm2
@@ -38349,7 +37816,7 @@ _sk_table_a_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,21,66,1,0 // minps 0x14215(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,13,186,62,1,0 // minps 0x13eba(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
@@ -38393,16 +37860,16 @@ _sk_parametric_r_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,13,68,1,0 // mulps 0x1440d(%rip),%xmm11 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,21,68,1,0 // movaps 0x14415(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,29,178,64,1,0 // mulps 0x140b2(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,186,64,1,0 // movaps 0x140ba(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,57,65,1,0 // orps 0x14139(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,29,17,68,1,0 // addps 0x14411(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,53,25,68,1,0 // movaps 0x14419(%rip),%xmm14 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,222,61,1,0 // orps 0x13dde(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,182,64,1,0 // addps 0x140b6(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,190,64,1,0 // movaps 0x140be(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,25,68,1,0 // addps 0x14419(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 68,15,40,53,33,68,1,0 // movaps 0x14421(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,190,64,1,0 // addps 0x140be(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,198,64,1,0 // movaps 0x140c6(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38410,21 +37877,21 @@ _sk_parametric_r_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,251,64,1,0 // movaps 0x140fb(%rip),%xmm12 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,37,160,61,1,0 // movaps 0x13da0(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,243,67,1,0 // addps 0x143f3(%rip),%xmm11 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 68,15,40,45,251,67,1,0 // movaps 0x143fb(%rip),%xmm13 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,29,152,64,1,0 // addps 0x14098(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,251,67,1,0 // movaps 0x143fb(%rip),%xmm13 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,255,67,1,0 // movaps 0x143ff(%rip),%xmm14 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,53,164,64,1,0 // movaps 0x140a4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,255,67,1,0 // mulps 0x143ff(%rip),%xmm14 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,89,53,164,64,1,0 // mulps 0x140a4(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38463,16 +37930,16 @@ _sk_parametric_g_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,194,66,1,0 // mulps 0x142c2(%rip),%xmm11 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,202,66,1,0 // movaps 0x142ca(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,29,103,63,1,0 // mulps 0x13f67(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,111,63,1,0 // movaps 0x13f6f(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,238,63,1,0 // orps 0x13fee(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,29,198,66,1,0 // addps 0x142c6(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,53,206,66,1,0 // movaps 0x142ce(%rip),%xmm14 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,147,60,1,0 // orps 0x13c93(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,107,63,1,0 // addps 0x13f6b(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,115,63,1,0 // movaps 0x13f73(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,206,66,1,0 // addps 0x142ce(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 68,15,40,53,214,66,1,0 // movaps 0x142d6(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,115,63,1,0 // addps 0x13f73(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,123,63,1,0 // movaps 0x13f7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38480,21 +37947,21 @@ _sk_parametric_g_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,176,63,1,0 // movaps 0x13fb0(%rip),%xmm12 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,37,85,60,1,0 // movaps 0x13c55(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,168,66,1,0 // addps 0x142a8(%rip),%xmm11 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 68,15,40,45,176,66,1,0 // movaps 0x142b0(%rip),%xmm13 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,29,77,63,1,0 // addps 0x13f4d(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,176,66,1,0 // movaps 0x142b0(%rip),%xmm13 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,180,66,1,0 // movaps 0x142b4(%rip),%xmm14 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,53,89,63,1,0 // movaps 0x13f59(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,180,66,1,0 // mulps 0x142b4(%rip),%xmm14 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,89,53,89,63,1,0 // mulps 0x13f59(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38533,16 +38000,16 @@ _sk_parametric_b_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,119,65,1,0 // mulps 0x14177(%rip),%xmm11 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,127,65,1,0 // movaps 0x1417f(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,29,28,62,1,0 // mulps 0x13e1c(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,36,62,1,0 // movaps 0x13e24(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,163,62,1,0 // orps 0x13ea3(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,29,123,65,1,0 // addps 0x1417b(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,53,131,65,1,0 // movaps 0x14183(%rip),%xmm14 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,72,59,1,0 // orps 0x13b48(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,32,62,1,0 // addps 0x13e20(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,40,62,1,0 // movaps 0x13e28(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,131,65,1,0 // addps 0x14183(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 68,15,40,53,139,65,1,0 // movaps 0x1418b(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,40,62,1,0 // addps 0x13e28(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,48,62,1,0 // movaps 0x13e30(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38550,21 +38017,21 @@ _sk_parametric_b_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,101,62,1,0 // movaps 0x13e65(%rip),%xmm12 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,37,10,59,1,0 // movaps 0x13b0a(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,93,65,1,0 // addps 0x1415d(%rip),%xmm11 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 68,15,40,45,101,65,1,0 // movaps 0x14165(%rip),%xmm13 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,29,2,62,1,0 // addps 0x13e02(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,101,65,1,0 // movaps 0x14165(%rip),%xmm13 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,105,65,1,0 // movaps 0x14169(%rip),%xmm14 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,53,14,62,1,0 // movaps 0x13e0e(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,105,65,1,0 // mulps 0x14169(%rip),%xmm14 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,89,53,14,62,1,0 // mulps 0x13e0e(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38603,16 +38070,16 @@ _sk_parametric_a_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,44,64,1,0 // mulps 0x1402c(%rip),%xmm11 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
- .byte 68,15,40,45,52,64,1,0 // movaps 0x14034(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,89,29,209,60,1,0 // mulps 0x13cd1(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,217,60,1,0 // movaps 0x13cd9(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,88,61,1,0 // orps 0x13d58(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 68,15,88,29,48,64,1,0 // addps 0x14030(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,53,56,64,1,0 // movaps 0x14038(%rip),%xmm14 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,86,45,253,57,1,0 // orps 0x139fd(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,213,60,1,0 // addps 0x13cd5(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,221,60,1,0 // movaps 0x13cdd(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,56,64,1,0 // addps 0x14038(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
- .byte 68,15,40,53,64,64,1,0 // movaps 0x14040(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,88,45,221,60,1,0 // addps 0x13cdd(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,229,60,1,0 // movaps 0x13ce5(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38620,21 +38087,21 @@ _sk_parametric_a_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,26,61,1,0 // movaps 0x13d1a(%rip),%xmm12 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,37,191,57,1,0 // movaps 0x139bf(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,18,64,1,0 // addps 0x14012(%rip),%xmm11 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 68,15,40,45,26,64,1,0 // movaps 0x1401a(%rip),%xmm13 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,88,29,183,60,1,0 // addps 0x13cb7(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,26,64,1,0 // movaps 0x1401a(%rip),%xmm13 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,30,64,1,0 // movaps 0x1401e(%rip),%xmm14 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,53,195,60,1,0 // movaps 0x13cc3(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,30,64,1,0 // mulps 0x1401e(%rip),%xmm14 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,89,53,195,60,1,0 // mulps 0x13cc3(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38662,21 +38129,21 @@ _sk_gamma_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,27,63,1,0 // movaps 0x13f1b(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,40,5,192,59,1,0 // movaps 0x13bc0(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,29,63,1,0 // movaps 0x13f1d(%rip),%xmm8 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,5,194,59,1,0 // movaps 0x13bc2(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,63,60,1,0 // orps 0x13c3f(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 15,88,53,24,63,1,0 // addps 0x13f18(%rip),%xmm6 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,29,32,63,1,0 // movaps 0x13f20(%rip),%xmm11 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 15,86,5,228,56,1,0 // orps 0x138e4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,53,189,59,1,0 // addps 0x13bbd(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,197,59,1,0 // movaps 0x13bc5(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,30,63,1,0 // movaps 0x13f1e(%rip),%xmm15 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,40,61,195,59,1,0 // movaps 0x13bc3(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,34,63,1,0 // movaps 0x13f22(%rip),%xmm13 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,45,199,59,1,0 // movaps 0x13bc7(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -38688,23 +38155,23 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,246,59,1,0 // andps 0x13bf6(%rip),%xmm1 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,84,13,155,56,1,0 // andps 0x1389b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,246,62,1,0 // addps 0x13ef6(%rip),%xmm6 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 15,40,21,15,63,1,0 // movaps 0x13f0f(%rip),%xmm2 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 15,88,53,155,59,1,0 // addps 0x13b9b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,21,180,59,1,0 // movaps 0x13bb4(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,237,62,1,0 // movaps 0x13eed(%rip),%xmm1 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,13,146,59,1,0 // movaps 0x13b92(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,53,255,62,1,0 // movaps 0x13eff(%rip),%xmm14 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,53,164,59,1,0 // movaps 0x13ba4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,252,62,1,0 // movaps 0x13efc(%rip),%xmm9 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,40,13,161,59,1,0 // movaps 0x13ba1(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -38714,9 +38181,9 @@ _sk_gamma_sse2:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,116,59,1,0 // movaps 0x13b74(%rip),%xmm6 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,53,25,56,1,0 // movaps 0x13819(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,74,62,1,0 // addps 0x13e4a(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,239,58,1,0 // addps 0x13aef(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -38729,12 +38196,12 @@ _sk_gamma_sse2:
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 68,15,40,61,73,59,1,0 // movaps 0x13b49(%rip),%xmm15 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,61,238,55,1,0 // movaps 0x137ee(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 15,88,5,69,62,1,0 // addps 0x13e45(%rip),%xmm0 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
+ .byte 15,88,5,234,58,1,0 // addps 0x13aea(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -38748,13 +38215,13 @@ _sk_gamma_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,176,61,1,0 // mulps 0x13db0(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,89,5,85,58,1,0 // mulps 0x13a55(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,193,61,1,0 // addps 0x13dc1(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,102,58,1,0 // addps 0x13a66(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,209,61,1,0 // addps 0x13dd1(%rip),%xmm8 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,88,5,118,58,1,0 // addps 0x13a76(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -38766,7 +38233,7 @@ _sk_gamma_sse2:
.byte 15,92,221 // subps %xmm5,%xmm3
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,88,5,196,61,1,0 // addps 0x13dc4(%rip),%xmm0 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
+ .byte 15,88,5,105,58,1,0 // addps 0x13a69(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,213 // subps %xmm5,%xmm2
@@ -38800,21 +38267,21 @@ _sk_gamma_dst_sse2:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,235,60,1,0 // movaps 0x13ceb(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,40,5,144,57,1,0 // movaps 0x13990(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,237,60,1,0 // movaps 0x13ced(%rip),%xmm8 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,5,146,57,1,0 // movaps 0x13992(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,15,58,1,0 // orps 0x13a0f(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 15,88,29,232,60,1,0 // addps 0x13ce8(%rip),%xmm3 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
- .byte 68,15,40,29,240,60,1,0 // movaps 0x13cf0(%rip),%xmm11 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 15,86,5,180,54,1,0 // orps 0x136b4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,29,141,57,1,0 // addps 0x1398d(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,149,57,1,0 // movaps 0x13995(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,238,60,1,0 // movaps 0x13cee(%rip),%xmm15 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,40,61,147,57,1,0 // movaps 0x13993(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,242,60,1,0 // movaps 0x13cf2(%rip),%xmm13 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,45,151,57,1,0 // movaps 0x13997(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -38826,23 +38293,23 @@ _sk_gamma_dst_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,198,57,1,0 // andps 0x139c6(%rip),%xmm1 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,84,13,107,54,1,0 // andps 0x1366b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,198,60,1,0 // addps 0x13cc6(%rip),%xmm3 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
- .byte 15,40,21,223,60,1,0 // movaps 0x13cdf(%rip),%xmm2 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
+ .byte 15,88,29,107,57,1,0 // addps 0x1396b(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,21,132,57,1,0 // movaps 0x13984(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,189,60,1,0 // movaps 0x13cbd(%rip),%xmm1 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,13,98,57,1,0 // movaps 0x13962(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,53,207,60,1,0 // movaps 0x13ccf(%rip),%xmm14 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
+ .byte 68,15,40,53,116,57,1,0 // movaps 0x13974(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,204,60,1,0 // movaps 0x13ccc(%rip),%xmm9 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
+ .byte 68,15,40,13,113,57,1,0 // movaps 0x13971(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -38852,9 +38319,9 @@ _sk_gamma_dst_sse2:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,68,57,1,0 // movaps 0x13944(%rip),%xmm3 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,29,233,53,1,0 // movaps 0x135e9(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,26,60,1,0 // addps 0x13c1a(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,191,56,1,0 // addps 0x138bf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -38867,12 +38334,12 @@ _sk_gamma_dst_sse2:
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 68,15,40,61,25,57,1,0 // movaps 0x13919(%rip),%xmm15 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,61,190,53,1,0 // movaps 0x135be(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,5,21,60,1,0 // addps 0x13c15(%rip),%xmm0 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
+ .byte 15,88,5,186,56,1,0 // addps 0x138ba(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -38886,13 +38353,13 @@ _sk_gamma_dst_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,128,59,1,0 // mulps 0x13b80(%rip),%xmm0 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
+ .byte 15,89,5,37,56,1,0 // mulps 0x13825(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,145,59,1,0 // addps 0x13b91(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
+ .byte 15,88,5,54,56,1,0 // addps 0x13836(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,161,59,1,0 // addps 0x13ba1(%rip),%xmm8 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
+ .byte 68,15,88,5,70,56,1,0 // addps 0x13846(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -38904,7 +38371,7 @@ _sk_gamma_dst_sse2:
.byte 15,92,230 // subps %xmm6,%xmm4
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,5,148,59,1,0 // addps 0x13b94(%rip),%xmm0 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
+ .byte 15,88,5,57,56,1,0 // addps 0x13839(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,214 // subps %xmm6,%xmm2
@@ -38929,29 +38396,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,146,59,1,0 // mulps 0x13b92(%rip),%xmm0 # 3bbf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
- .byte 68,15,40,5,10,57,1,0 // movaps 0x1390a(%rip),%xmm8 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 15,89,5,55,56,1,0 // mulps 0x13837(%rip),%xmm0 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,40,5,175,53,1,0 // movaps 0x135af(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,142,59,1,0 // movaps 0x13b8e(%rip),%xmm9 # 3bc00 <_sk_srcover_bgra_8888_sse2_lowp+0x1010>
+ .byte 68,15,40,13,51,56,1,0 // movaps 0x13833(%rip),%xmm9 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,139,59,1,0 // addps 0x13b8b(%rip),%xmm0 # 3bc10 <_sk_srcover_bgra_8888_sse2_lowp+0x1020>
- .byte 15,89,5,148,59,1,0 // mulps 0x13b94(%rip),%xmm0 # 3bc20 <_sk_srcover_bgra_8888_sse2_lowp+0x1030>
- .byte 15,89,13,157,59,1,0 // mulps 0x13b9d(%rip),%xmm1 # 3bc30 <_sk_srcover_bgra_8888_sse2_lowp+0x1040>
+ .byte 15,88,5,48,56,1,0 // addps 0x13830(%rip),%xmm0 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
+ .byte 15,89,5,57,56,1,0 // mulps 0x13839(%rip),%xmm0 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
+ .byte 15,89,13,66,56,1,0 // mulps 0x13842(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,163,59,1,0 // mulps 0x13ba3(%rip),%xmm2 # 3bc40 <_sk_srcover_bgra_8888_sse2_lowp+0x1050>
+ .byte 15,89,21,72,56,1,0 // mulps 0x13848(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,152,59,1,0 // movaps 0x13b98(%rip),%xmm2 # 3bc50 <_sk_srcover_bgra_8888_sse2_lowp+0x1060>
+ .byte 15,40,21,61,56,1,0 // movaps 0x1383d(%rip),%xmm2 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,151,59,1,0 // movaps 0x13b97(%rip),%xmm10 # 3bc60 <_sk_srcover_bgra_8888_sse2_lowp+0x1070>
+ .byte 68,15,40,21,60,56,1,0 // movaps 0x1383c(%rip),%xmm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,155,59,1,0 // movaps 0x13b9b(%rip),%xmm11 # 3bc70 <_sk_srcover_bgra_8888_sse2_lowp+0x1080>
+ .byte 68,15,40,29,64,56,1,0 // movaps 0x13840(%rip),%xmm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -38975,8 +38442,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,75,59,1,0 // mulps 0x13b4b(%rip),%xmm8 # 3bc80 <_sk_srcover_bgra_8888_sse2_lowp+0x1090>
- .byte 15,89,21,84,59,1,0 // mulps 0x13b54(%rip),%xmm2 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10a0>
+ .byte 68,15,89,5,240,55,1,0 // mulps 0x137f0(%rip),%xmm8 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
+ .byte 15,89,21,249,55,1,0 // mulps 0x137f9(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38992,13 +38459,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 2818a <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 277a5 <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,206,55,1,0 // pand 0x137ce(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,5,115,52,1,0 // pand 0x13473(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,36,57,1,0 // mulps 0x13924(%rip),%xmm3 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,29,201,53,1,0 // mulps 0x135c9(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -39007,12 +38474,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 281cd <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 277e8 <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 281b6 <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 277d1 <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 2816a <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 27785 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -39021,10 +38488,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 2816a <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 27785 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 2816a <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 27785 <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -39037,13 +38504,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 2821e <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 27839 <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,58,55,1,0 // pand 0x1373a(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,37,223,51,1,0 // pand 0x133df(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,144,56,1,0 // mulps 0x13890(%rip),%xmm7 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,61,53,53,1,0 // mulps 0x13535(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -39052,12 +38519,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 28261 <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 2787c <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 2824a <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 27865 <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 281fe <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 27819 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -39066,10 +38533,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 281fe <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 27819 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 281fe <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 27819 <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -39122,7 +38589,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,106,55,1,0 // mulps 0x1376a(%rip),%xmm3 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,29,15,52,1,0 // mulps 0x1340f(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -39141,15 +38608,15 @@ _sk_store_a8_sse2:
.byte 76,99,210 // movslq %edx,%r10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,41,53,1,0 // minps 0x13529(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
- .byte 68,15,89,5,1,54,1,0 // mulps 0x13601(%rip),%xmm8 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,93,5,206,49,1,0 // minps 0x131ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,89,5,166,50,1,0 // mulps 0x132a6(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 2839c <_sk_store_a8_sse2+0x58>
+ .byte 117,13 // jne 279b7 <_sk_store_a8_sse2+0x58>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -39159,22 +38626,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 283e9 <_sk_store_a8_sse2+0xa5>
+ .byte 116,54 // je 27a04 <_sk_store_a8_sse2+0xa5>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 283ca <_sk_store_a8_sse2+0x86>
+ .byte 116,17 // je 279e5 <_sk_store_a8_sse2+0x86>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 28398 <_sk_store_a8_sse2+0x54>
+ .byte 117,217 // jne 279b3 <_sk_store_a8_sse2+0x54>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,109,53,1,0 // pand 0x1356d(%rip),%xmm8 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,68,15,219,5,18,50,1,0 // pand 0x13212(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 28398 <_sk_store_a8_sse2+0x54>
+ .byte 235,175 // jmp 279b3 <_sk_store_a8_sse2+0x54>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 28398 <_sk_store_a8_sse2+0x54>
+ .byte 235,164 // jmp 279b3 <_sk_store_a8_sse2+0x54>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -39187,27 +38654,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 2843d <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 27a58 <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,30,53,1,0 // pand 0x1351e(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,5,195,49,1,0 // pand 0x131c3(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,116,54,1,0 // mulps 0x13674(%rip),%xmm0 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,5,25,51,1,0 // mulps 0x13319(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,91,52,1,0 // movaps 0x1345b(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,0,49,1,0 // movaps 0x13100(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 28480 <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 27a9b <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 28469 <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 27a84 <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 2841a <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 27a35 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -39216,10 +38683,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 2841a <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 27a35 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 2841a <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 27a35 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -39232,27 +38699,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 284d4 <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 27aef <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,135,52,1,0 // pand 0x13487(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,219,37,44,49,1,0 // pand 0x1312c(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,221,53,1,0 // mulps 0x135dd(%rip),%xmm4 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,37,130,50,1,0 // mulps 0x13282(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,196,51,1,0 // movaps 0x133c4(%rip),%xmm7 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,61,105,48,1,0 // movaps 0x13069(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 28517 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 27b32 <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 28500 <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 27b1b <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 284b1 <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 27acc <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -39261,10 +38728,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 284b1 <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 27acc <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 284b1 <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 27acc <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -39317,9 +38784,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,180,52,1,0 // mulps 0x134b4(%rip),%xmm0 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 15,89,5,89,49,1,0 // mulps 0x13159(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,155,50,1,0 // movaps 0x1329b(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,64,47,1,0 // movaps 0x12f40(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -39336,42 +38803,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 2866b <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 27c86 <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,134,52,1,0 // movdqa 0x13486(%rip),%xmm0 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,43,49,1,0 // movdqa 0x1312b(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,136,52,1,0 // mulps 0x13488(%rip),%xmm0 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,144,52,1,0 // movdqa 0x13490(%rip),%xmm1 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,45,49,1,0 // mulps 0x1312d(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,53,49,1,0 // movdqa 0x13135(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,146,52,1,0 // mulps 0x13492(%rip),%xmm1 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,15,219,21,154,52,1,0 // pand 0x1349a(%rip),%xmm2 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,55,49,1,0 // mulps 0x13137(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,63,49,1,0 // pand 0x1313f(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,160,52,1,0 // mulps 0x134a0(%rip),%xmm2 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 15,89,21,69,49,1,0 // mulps 0x13145(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,39,50,1,0 // movaps 0x13227(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,204,46,1,0 // movaps 0x12ecc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 286ab <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 27cc6 <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 28697 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 27cb2 <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 28622 <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 27c3d <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 28622 <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 28622 <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -39385,42 +38852,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 28727 <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 27d42 <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,202,51,1,0 // movdqa 0x133ca(%rip),%xmm4 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,37,111,48,1,0 // movdqa 0x1306f(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,204,51,1,0 // mulps 0x133cc(%rip),%xmm4 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,45,212,51,1,0 // movdqa 0x133d4(%rip),%xmm5 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 15,89,37,113,48,1,0 // mulps 0x13071(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,45,121,48,1,0 // movdqa 0x13079(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,214,51,1,0 // mulps 0x133d6(%rip),%xmm5 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,15,219,53,222,51,1,0 // pand 0x133de(%rip),%xmm6 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 15,89,45,123,48,1,0 // mulps 0x1307b(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,53,131,48,1,0 // pand 0x13083(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,228,51,1,0 // mulps 0x133e4(%rip),%xmm6 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 15,89,53,137,48,1,0 // mulps 0x13089(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,107,49,1,0 // movaps 0x1316b(%rip),%xmm7 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,61,16,46,1,0 // movaps 0x12e10(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 28767 <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 27d82 <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 28753 <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 27d6e <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 286de <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 27cf9 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 286de <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 286de <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -39469,19 +38936,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,121,50,1,0 // movdqa 0x13279(%rip),%xmm0 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
+ .byte 102,15,111,5,30,47,1,0 // movdqa 0x12f1e(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,123,50,1,0 // mulps 0x1327b(%rip),%xmm0 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
- .byte 102,15,111,13,131,50,1,0 // movdqa 0x13283(%rip),%xmm1 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 15,89,5,32,47,1,0 // mulps 0x12f20(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,40,47,1,0 // movdqa 0x12f28(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,133,50,1,0 // mulps 0x13285(%rip),%xmm1 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
- .byte 102,15,219,21,141,50,1,0 // pand 0x1328d(%rip),%xmm2 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 15,89,13,42,47,1,0 // mulps 0x12f2a(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,50,47,1,0 // pand 0x12f32(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,147,50,1,0 // mulps 0x13293(%rip),%xmm2 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
+ .byte 15,89,21,56,47,1,0 // mulps 0x12f38(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,26,48,1,0 // movaps 0x1301a(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,191,44,1,0 // movaps 0x12cbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -39498,16 +38965,16 @@ _sk_store_565_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,238,47,1,0 // movaps 0x12fee(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,147,44,1,0 // movaps 0x12c93(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,2,52,1,0 // movaps 0x13402(%rip),%xmm11 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,29,167,48,1,0 // movaps 0x130a7(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
.byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,239,51,1,0 // mulps 0x133ef(%rip),%xmm12 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d0>
+ .byte 68,15,89,37,148,48,1,0 // mulps 0x13094(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
.byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
.byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
.byte 68,15,95,194 // maxps %xmm2,%xmm8
@@ -39520,7 +38987,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 28917 <_sk_store_565_sse2+0x9f>
+ .byte 117,10 // jne 27f32 <_sk_store_565_sse2+0x9f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39528,19 +38995,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 2894f <_sk_store_565_sse2+0xd7>
+ .byte 116,38 // je 27f6a <_sk_store_565_sse2+0xd7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 28941 <_sk_store_565_sse2+0xc9>
+ .byte 116,18 // je 27f5c <_sk_store_565_sse2+0xc9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 28913 <_sk_store_565_sse2+0x9b>
+ .byte 117,222 // jne 27f2e <_sk_store_565_sse2+0x9b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 28913 <_sk_store_565_sse2+0x9b>
+ .byte 235,196 // jmp 27f2e <_sk_store_565_sse2+0x9b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 28913 <_sk_store_565_sse2+0x9b>
+ .byte 235,184 // jmp 27f2e <_sk_store_565_sse2+0x9b>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -39554,45 +39021,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 289d8 <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 27ff3 <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,72,51,1,0 // movdqa 0x13348(%rip),%xmm0 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
+ .byte 102,15,111,5,237,47,1,0 // movdqa 0x12fed(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,74,51,1,0 // mulps 0x1334a(%rip),%xmm0 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
- .byte 102,15,111,13,82,51,1,0 // movdqa 0x13352(%rip),%xmm1 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 15,89,5,239,47,1,0 // mulps 0x12fef(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,247,47,1,0 // movdqa 0x12ff7(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,84,51,1,0 // mulps 0x13354(%rip),%xmm1 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
- .byte 102,15,111,21,92,51,1,0 // movdqa 0x1335c(%rip),%xmm2 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 15,89,13,249,47,1,0 // mulps 0x12ff9(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,1,48,1,0 // movdqa 0x13001(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,94,51,1,0 // mulps 0x1335e(%rip),%xmm2 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
- .byte 102,15,219,29,102,51,1,0 // pand 0x13366(%rip),%xmm3 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 15,89,21,3,48,1,0 // mulps 0x13003(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,11,48,1,0 // pand 0x1300b(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,108,51,1,0 // mulps 0x1336c(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
+ .byte 15,89,29,17,48,1,0 // mulps 0x13011(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 28a18 <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 28033 <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 28a04 <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 2801f <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 28980 <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 27f9b <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 28980 <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 28980 <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -39606,45 +39073,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 28aa3 <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 280be <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,125,50,1,0 // movdqa 0x1327d(%rip),%xmm4 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
+ .byte 102,15,111,37,34,47,1,0 // movdqa 0x12f22(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,127,50,1,0 // mulps 0x1327f(%rip),%xmm4 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
- .byte 102,15,111,45,135,50,1,0 // movdqa 0x13287(%rip),%xmm5 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 15,89,37,36,47,1,0 // mulps 0x12f24(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,45,44,47,1,0 // movdqa 0x12f2c(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,137,50,1,0 // mulps 0x13289(%rip),%xmm5 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
- .byte 102,15,111,53,145,50,1,0 // movdqa 0x13291(%rip),%xmm6 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 15,89,45,46,47,1,0 // mulps 0x12f2e(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,53,54,47,1,0 // movdqa 0x12f36(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,147,50,1,0 // mulps 0x13293(%rip),%xmm6 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
- .byte 102,15,219,61,155,50,1,0 // pand 0x1329b(%rip),%xmm7 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 15,89,53,56,47,1,0 // mulps 0x12f38(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,61,64,47,1,0 // pand 0x12f40(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,161,50,1,0 // mulps 0x132a1(%rip),%xmm7 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
+ .byte 15,89,61,70,47,1,0 // mulps 0x12f46(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 28ae3 <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 280fe <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 28acf <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 280ea <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 28a4b <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 28066 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 28a4b <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 28a4b <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -39693,21 +39160,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,29,49,1,0 // movdqa 0x1311d(%rip),%xmm0 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
+ .byte 102,15,111,5,194,45,1,0 // movdqa 0x12dc2(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,31,49,1,0 // mulps 0x1311f(%rip),%xmm0 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
- .byte 102,15,111,13,39,49,1,0 // movdqa 0x13127(%rip),%xmm1 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 15,89,5,196,45,1,0 // mulps 0x12dc4(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,204,45,1,0 // movdqa 0x12dcc(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,41,49,1,0 // mulps 0x13129(%rip),%xmm1 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
- .byte 102,15,111,21,49,49,1,0 // movdqa 0x13131(%rip),%xmm2 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 15,89,13,206,45,1,0 // mulps 0x12dce(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,214,45,1,0 // movdqa 0x12dd6(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,51,49,1,0 // mulps 0x13133(%rip),%xmm2 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
- .byte 102,15,219,29,59,49,1,0 // pand 0x1313b(%rip),%xmm3 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 15,89,21,216,45,1,0 // mulps 0x12dd8(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,224,45,1,0 // pand 0x12de0(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,65,49,1,0 // mulps 0x13141(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
+ .byte 15,89,29,230,45,1,0 // mulps 0x12de6(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39725,9 +39192,9 @@ _sk_store_4444_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,99,44,1,0 // movaps 0x12c63(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,8,41,1,0 // movaps 0x12908(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,23,49,1,0 // movaps 0x13117(%rip),%xmm11 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
+ .byte 68,15,40,29,188,45,1,0 // movaps 0x12dbc(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
@@ -39754,7 +39221,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 28cbf <_sk_store_4444_sse2+0xbc>
+ .byte 117,10 // jne 282da <_sk_store_4444_sse2+0xbc>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39762,19 +39229,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 28cf7 <_sk_store_4444_sse2+0xf4>
+ .byte 116,38 // je 28312 <_sk_store_4444_sse2+0xf4>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 28ce9 <_sk_store_4444_sse2+0xe6>
+ .byte 116,18 // je 28304 <_sk_store_4444_sse2+0xe6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 28cbb <_sk_store_4444_sse2+0xb8>
+ .byte 117,222 // jne 282d6 <_sk_store_4444_sse2+0xb8>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 28cbb <_sk_store_4444_sse2+0xb8>
+ .byte 235,196 // jmp 282d6 <_sk_store_4444_sse2+0xb8>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 28cbb <_sk_store_4444_sse2+0xb8>
+ .byte 235,184 // jmp 282d6 <_sk_store_4444_sse2+0xb8>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -39788,13 +39255,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 28d81 <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 2839c <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,19,44,1,0 // movdqa 0x12c13(%rip),%xmm2 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,21,184,40,1,0 // movdqa 0x128b8(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,95,45,1,0 // movaps 0x12d5f(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,4,42,1,0 // movaps 0x12a04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39814,18 +39281,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 28db7 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 283d2 <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 28dac <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 283c7 <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 28d25 <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 28340 <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 28d25 <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 28d25 <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -39839,13 +39306,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 28e40 <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 2845b <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,84,43,1,0 // movdqa 0x12b54(%rip),%xmm6 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,53,249,39,1,0 // movdqa 0x127f9(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,160,44,1,0 // movaps 0x12ca0(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,69,41,1,0 // movaps 0x12945(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39865,18 +39332,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 28e76 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 28491 <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 28e6b <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 28486 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 28de4 <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 283ff <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 28de4 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 28de4 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -39922,11 +39389,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,7,42,1,0 // movdqa 0x12a07(%rip),%xmm2 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,21,172,38,1,0 // movdqa 0x126ac(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,83,43,1,0 // movaps 0x12b53(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,248,39,1,0 // movaps 0x127f8(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39958,9 +39425,9 @@ _sk_store_8888_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,216,40,1,0 // movaps 0x128d8(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,125,37,1,0 // movaps 0x1257d(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,172,41,1,0 // movaps 0x129ac(%rip),%xmm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,29,81,38,1,0 // movaps 0x12651(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -39984,24 +39451,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 29039 <_sk_store_8888_sse2+0xac>
+ .byte 117,10 // jne 28654 <_sk_store_8888_sse2+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 29067 <_sk_store_8888_sse2+0xda>
+ .byte 116,33 // je 28682 <_sk_store_8888_sse2+0xda>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 2905f <_sk_store_8888_sse2+0xd2>
+ .byte 116,19 // je 2867a <_sk_store_8888_sse2+0xd2>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 29035 <_sk_store_8888_sse2+0xa8>
+ .byte 117,227 // jne 28650 <_sk_store_8888_sse2+0xa8>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 29035 <_sk_store_8888_sse2+0xa8>
+ .byte 235,206 // jmp 28650 <_sk_store_8888_sse2+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 29035 <_sk_store_8888_sse2+0xa8>
+ .byte 235,198 // jmp 28650 <_sk_store_8888_sse2+0xa8>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -40015,13 +39482,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 290ed <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 28708 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,167,40,1,0 // movdqa 0x128a7(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,5,76,37,1,0 // movdqa 0x1254c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,243,41,1,0 // movaps 0x129f3(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,152,38,1,0 // movaps 0x12698(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -40041,18 +39508,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 29123 <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 2873e <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 29118 <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 28733 <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 29091 <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 286ac <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 29091 <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 29091 <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -40066,13 +39533,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 291ac <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 287c7 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,232,39,1,0 // movdqa 0x127e8(%rip),%xmm4 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,37,141,36,1,0 // movdqa 0x1248d(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,52,41,1,0 // movaps 0x12934(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,217,37,1,0 // movaps 0x125d9(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -40092,18 +39559,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 291e2 <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 287fd <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 291d7 <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 287f2 <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 29150 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 2876b <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 29150 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 29150 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -40149,11 +39616,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,155,38,1,0 // movdqa 0x1269b(%rip),%xmm0 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 102,15,111,5,64,35,1,0 // movdqa 0x12340(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,231,39,1,0 // movaps 0x127e7(%rip),%xmm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
+ .byte 68,15,40,5,140,36,1,0 // movaps 0x1248c(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -40185,9 +39652,9 @@ _sk_store_bgra_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,108,37,1,0 // movaps 0x1256c(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,17,34,1,0 // movaps 0x12211(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,64,38,1,0 // movaps 0x12640(%rip),%xmm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,29,229,34,1,0 // movaps 0x122e5(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -40211,24 +39678,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 293a5 <_sk_store_bgra_sse2+0xac>
+ .byte 117,10 // jne 289c0 <_sk_store_bgra_sse2+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 293d3 <_sk_store_bgra_sse2+0xda>
+ .byte 116,33 // je 289ee <_sk_store_bgra_sse2+0xda>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 293cb <_sk_store_bgra_sse2+0xd2>
+ .byte 116,19 // je 289e6 <_sk_store_bgra_sse2+0xd2>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 293a1 <_sk_store_bgra_sse2+0xa8>
+ .byte 117,227 // jne 289bc <_sk_store_bgra_sse2+0xa8>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 293a1 <_sk_store_bgra_sse2+0xa8>
+ .byte 235,206 // jmp 289bc <_sk_store_bgra_sse2+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 293a1 <_sk_store_bgra_sse2+0xa8>
+ .byte 235,198 // jmp 289bc <_sk_store_bgra_sse2+0xa8>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -40242,7 +39709,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 2952a <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 28b45 <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -40254,18 +39721,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,37,41,1,0 // movdqa 0x12925(%rip),%xmm9 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,13,202,37,1,0 // movdqa 0x125ca(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,34,41,1,0 // movdqa 0x12922(%rip),%xmm11 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,29,199,37,1,0 // movdqa 0x125c7(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,37,41,1,0 // movdqa 0x12925(%rip),%xmm3 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,29,202,37,1,0 // movdqa 0x125ca(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,20,41,1,0 // movdqa 0x12914(%rip),%xmm12 # 3bd90 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 102,68,15,111,37,185,37,1,0 // movdqa 0x125b9(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -40304,16 +39771,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 29543 <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 28b5e <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 29408 <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 29408 <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 28a23 <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 29408 <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -40327,7 +39794,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 296b3 <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 28cce <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -40339,18 +39806,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,156,39,1,0 // movdqa 0x1279c(%rip),%xmm9 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,13,65,36,1,0 // movdqa 0x12441(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,153,39,1,0 // movdqa 0x12799(%rip),%xmm11 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,29,62,36,1,0 // movdqa 0x1243e(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,156,39,1,0 // movdqa 0x1279c(%rip),%xmm7 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,61,65,36,1,0 // movdqa 0x12441(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,139,39,1,0 // movdqa 0x1278b(%rip),%xmm12 # 3bd90 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 102,68,15,111,37,48,36,1,0 // movdqa 0x12430(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -40389,16 +39856,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 296cc <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 28ce7 <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 29591 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 29591 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 28bac <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 29591 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -40452,18 +39919,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,154,37,1,0 // movdqa 0x1259a(%rip),%xmm10 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,21,63,34,1,0 // movdqa 0x1223f(%rip),%xmm10 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,151,37,1,0 // movdqa 0x12597(%rip),%xmm11 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,29,60,34,1,0 // movdqa 0x1223c(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,154,37,1,0 // movdqa 0x1259a(%rip),%xmm3 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 102,15,111,29,63,34,1,0 // movdqa 0x1223f(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,137,37,1,0 // movdqa 0x12589(%rip),%xmm12 # 3bd90 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 102,68,15,111,37,46,34,1,0 // movdqa 0x1222e(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -40506,19 +39973,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,221,36,1,0 // movdqa 0x124dd(%rip),%xmm11 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,111,29,130,33,1,0 // movdqa 0x12182(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,218,36,1,0 // movdqa 0x124da(%rip),%xmm10 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,111,21,127,33,1,0 // movdqa 0x1217f(%rip),%xmm10 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,216,36,1,0 // movdqa 0x124d8(%rip),%xmm7 # 3bdc0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
- .byte 102,68,15,111,37,127,38,1,0 // movdqa 0x1267f(%rip),%xmm12 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x1380>
+ .byte 102,15,111,61,125,33,1,0 // movdqa 0x1217d(%rip),%xmm7 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 102,68,15,111,37,36,35,1,0 // movdqa 0x12324(%rip),%xmm12 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,49,33,1,0 // movdqa 0x12131(%rip),%xmm13 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0xe50>
+ .byte 102,68,15,111,45,214,29,1,0 // movdqa 0x11dd6(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -40574,7 +40041,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 29a41 <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 2905c <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -40587,13 +40054,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 29a38 <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 29053 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 29a38 <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 29053 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 29a38 <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 29053 <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -40608,7 +40075,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 29b57 <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 29172 <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -40625,7 +40092,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,70,32,1,0 // movaps 0x12046(%rip),%xmm8 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
+ .byte 68,15,40,5,235,28,1,0 // movaps 0x11ceb(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40653,16 +40120,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 29b70 <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 2918b <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 29aa6 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 29aa6 <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 290c1 <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 29aa6 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -40679,7 +40146,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 29c6b <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 29286 <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -40700,7 +40167,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,16,31,1,0 // movaps 0x11f10(%rip),%xmm9 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
+ .byte 68,15,40,13,181,27,1,0 // movaps 0x11bb5(%rip),%xmm9 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40717,27 +40184,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,39,28,1,0 // movaps 0x11c27(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,204,24,1,0 // movaps 0x118cc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 29c90 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 292ab <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 29be0 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 29cc1 <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 292dc <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 29be0 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 29be0 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -40754,9 +40221,9 @@ _sk_store_u16_be_sse2:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,148,27,1,0 // movaps 0x11b94(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,57,24,1,0 // movaps 0x11839(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,216,32,1,0 // movaps 0x120d8(%rip),%xmm11 # 3bde0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
+ .byte 68,15,40,29,125,29,1,0 // movaps 0x11d7d(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -40806,7 +40273,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 29e18 <_sk_store_u16_be_sse2+0x14e>
+ .byte 117,21 // jne 29433 <_sk_store_u16_be_sse2+0x14e>
.byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2)
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -40814,13 +40281,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 29e14 <_sk_store_u16_be_sse2+0x14a>
+ .byte 116,240 // je 2942f <_sk_store_u16_be_sse2+0x14a>
.byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 29e14 <_sk_store_u16_be_sse2+0x14a>
+ .byte 114,227 // jb 2942f <_sk_store_u16_be_sse2+0x14a>
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 29e14 <_sk_store_u16_be_sse2+0x14a>
+ .byte 235,213 // jmp 2942f <_sk_store_u16_be_sse2+0x14a>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -40836,7 +40303,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 29eaa <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 294c5 <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -40856,17 +40323,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 29ebc <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 294d7 <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 29e7a <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 29495 <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 29ed0 <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 294eb <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 29e7a <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 29495 <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 29e7a <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 29495 <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -40882,7 +40349,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 29f40 <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 2955b <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -40902,17 +40369,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 29f52 <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 2956d <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 29f10 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 29f66 <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 29581 <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 29f10 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 29f10 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -40941,7 +40408,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 29fe8 <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 29603 <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -40949,12 +40416,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 29fe4 <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 295ff <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 29fe4 <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 295ff <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 29fe4 <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 295ff <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -40968,7 +40435,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,97,24,1,0 // andps 0x11861(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,84,13,6,21,1,0 // andps 0x11506(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -40988,7 +40455,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,32,24,1,0 // andps 0x11820(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,84,13,197,20,1,0 // andps 0x114c5(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -41008,13 +40475,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,234,13,1,0 // mulss 0x10dea(%rip),%xmm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,71,11,1,0 // mulss 0x10b47(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,191,23,1,0 // andps 0x117bf(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,84,13,100,20,1,0 // andps 0x11464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -41037,13 +40504,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,126,13,1,0 // mulss 0x10d7e(%rip),%xmm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,219,10,1,0 // mulss 0x10adb(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,83,23,1,0 // andps 0x11753(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,84,13,248,19,1,0 // andps 0x113f8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -41060,7 +40527,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,35,23,1,0 // minps 0x11723(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,93,5,200,19,1,0 // minps 0x113c8(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -41073,7 +40540,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,1,23,1,0 // movaps 0x11701(%rip),%xmm11 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,29,166,19,1,0 // movaps 0x113a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,211 // andps %xmm11,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -41088,14 +40555,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,57,23,1,0 // movaps 0x11739(%rip),%xmm9 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
+ .byte 68,15,40,13,222,19,1,0 // movaps 0x113de(%rip),%xmm9 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,189,22,1,0 // movaps 0x116bd(%rip),%xmm10 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,21,98,19,1,0 // movaps 0x11362(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,89,208 // mulps %xmm0,%xmm10
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,179,22,1,0 // movaps 0x116b3(%rip),%xmm12 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,37,88,19,1,0 // movaps 0x11358(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
@@ -41116,10 +40583,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,213,27,1,0 // mulps 0x11bd5(%rip),%xmm0 # 3bdf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
- .byte 15,89,13,222,27,1,0 // mulps 0x11bde(%rip),%xmm1 # 3be00 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
+ .byte 15,89,5,122,24,1,0 // mulps 0x1187a(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
+ .byte 15,89,13,131,24,1,0 // mulps 0x11883(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,228,27,1,0 // mulps 0x11be4(%rip),%xmm3 # 3be10 <_sk_srcover_bgra_8888_sse2_lowp+0x1220>
+ .byte 15,89,29,137,24,1,0 // mulps 0x11889(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -41431,9 +40898,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 2a6cc <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 29ce7 <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 2a6e1 <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 29cfc <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -41535,7 +41002,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 2a8a5 <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 29ec0 <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -41546,7 +41013,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 2a88b <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 29ea6 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -41686,29 +41153,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,64,19,1,0 // movaps 0x11340(%rip),%xmm13 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1230>
+ .byte 68,15,40,45,229,15,1,0 // movaps 0x10fe5(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,68,19,1,0 // addps 0x11344(%rip),%xmm13 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1240>
+ .byte 68,15,88,45,233,15,1,0 // addps 0x10fe9(%rip),%xmm13 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,72,19,1,0 // addps 0x11348(%rip),%xmm13 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x1250>
+ .byte 68,15,88,45,237,15,1,0 // addps 0x10fed(%rip),%xmm13 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,76,19,1,0 // addps 0x1134c(%rip),%xmm13 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x1260>
+ .byte 68,15,88,45,241,15,1,0 // addps 0x10ff1(%rip),%xmm13 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,75,19,1,0 // movaps 0x1134b(%rip),%xmm10 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x1270>
+ .byte 68,15,40,21,240,15,1,0 // movaps 0x10ff0(%rip),%xmm10 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,78,13,1,0 // movaps 0x10d4e(%rip),%xmm10 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,21,243,9,1,0 // movaps 0x109f3(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,61,13,1,0 // movaps 0x10d3d(%rip),%xmm10 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,21,226,9,1,0 // movaps 0x109e2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -41744,7 +41211,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,177,18,1,0 // mulps 0x112b1(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
+ .byte 68,15,89,13,86,15,1,0 // mulps 0x10f56(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41752,7 +41219,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,155,18,1,0 // mulps 0x1129b(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
+ .byte 68,15,89,21,64,15,1,0 // mulps 0x10f40(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -41760,7 +41227,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,120,12,1,0 // mulps 0x10c78(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,29,9,1,0 // mulps 0x1091d(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41779,7 +41246,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,40,18,1,0 // mulps 0x11228(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
+ .byte 68,15,89,13,205,14,1,0 // mulps 0x10ecd(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41787,16 +41254,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,18,18,1,0 // mulps 0x11212(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
+ .byte 68,15,89,21,183,14,1,0 // mulps 0x10eb7(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,18,17,1,0 // xorps 0x11112(%rip),%xmm9 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 68,15,87,13,183,13,1,0 // xorps 0x10db7(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,231,11,1,0 // mulps 0x10be7(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,89,5,140,8,1,0 // mulps 0x1088c(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41811,7 +41278,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,171,17,1,0 // mulps 0x111ab(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
+ .byte 68,15,89,13,80,14,1,0 // mulps 0x10e50(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -41819,7 +41286,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,183,16,1,0 // xorps 0x110b7(%rip),%xmm0 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 15,87,5,92,13,1,0 // xorps 0x10d5c(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41865,7 +41332,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,30,11,1,0 // movaps 0x10b1e(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,195,7,1,0 // movaps 0x107c3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -41873,7 +41340,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,9,11,1,0 // movaps 0x10b09(%rip),%xmm12 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,37,174,7,1,0 // movaps 0x107ae(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -41920,8 +41387,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,105,16,1,0 // addps 0x11069(%rip),%xmm0 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,97,10,1,0 // movaps 0x10a61(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,5,14,13,1,0 // addps 0x10d0e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,6,7,1,0 // movaps 0x10706(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41934,7 +41401,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,45,10,1,0 // addps 0x10a2d(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,5,210,6,1,0 // addps 0x106d2(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41946,8 +41413,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,28,16,1,0 // addps 0x1101c(%rip),%xmm1 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,20,10,1,0 // movaps 0x10a14(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,13,193,12,1,0 // addps 0x10cc1(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,185,6,1,0 // movaps 0x106b9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41960,7 +41427,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,223,9,1,0 // addps 0x109df(%rip),%xmm1 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,13,132,6,1,0 // addps 0x10684(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41972,13 +41439,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,223,15,1,0 // addps 0x10fdf(%rip),%xmm0 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
- .byte 68,15,40,13,199,9,1,0 // movaps 0x109c7(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,5,132,12,1,0 // addps 0x10c84(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,108,6,1,0 // movaps 0x1066c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,211,15,1,0 // mulps 0x10fd3(%rip),%xmm9 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,13,171,11,1,0 // addps 0x10bab(%rip),%xmm9 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,13,120,12,1,0 // mulps 0x10c78(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,80,8,1,0 // addps 0x10850(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41991,16 +41458,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,135,15,1,0 // addps 0x10f87(%rip),%xmm0 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,127,9,1,0 // movaps 0x1097f(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,5,44,12,1,0 // addps 0x10c2c(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,36,6,1,0 // movaps 0x10624(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,163,15,1,0 // movaps 0x10fa3(%rip),%xmm8 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,5,72,12,1,0 // movaps 0x10c48(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,167,15,1,0 // addps 0x10fa7(%rip),%xmm8 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,5,76,12,1,0 // addps 0x10c4c(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,75,9,1,0 // addps 0x1094b(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,88,5,240,5,1,0 // addps 0x105f0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,159,15,1,0 // addps 0x10f9f(%rip),%xmm8 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,68,12,1,0 // addps 0x10c44(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -42010,17 +41477,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,41,9,1,0 // movaps 0x10929(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,206,5,1,0 // movaps 0x105ce(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,82,15,1,0 // movaps 0x10f52(%rip),%xmm10 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,21,247,11,1,0 // movaps 0x10bf7(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,86,15,1,0 // addps 0x10f56(%rip),%xmm10 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,21,251,11,1,0 // addps 0x10bfb(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,82,15,1,0 // addps 0x10f52(%rip),%xmm10 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,21,247,11,1,0 // addps 0x10bf7(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -42032,11 +41499,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,34,15,1,0 // addps 0x10f22(%rip),%xmm0 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 15,88,5,199,11,1,0 // addps 0x10bc7(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,242,14,1,0 // mulps 0x10ef2(%rip),%xmm8 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,5,202,10,1,0 // addps 0x10aca(%rip),%xmm8 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,5,151,11,1,0 // mulps 0x10b97(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,111,7,1,0 // addps 0x1076f(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -42049,13 +41516,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,181,14,1,0 // addps 0x10eb5(%rip),%xmm1 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
- .byte 68,15,40,13,157,8,1,0 // movaps 0x1089d(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,13,90,11,1,0 // addps 0x10b5a(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,66,5,1,0 // movaps 0x10542(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,169,14,1,0 // mulps 0x10ea9(%rip),%xmm9 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,13,129,10,1,0 // addps 0x10a81(%rip),%xmm9 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,13,78,11,1,0 // mulps 0x10b4e(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,38,7,1,0 // addps 0x10726(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -42068,16 +41535,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,92,14,1,0 // addps 0x10e5c(%rip),%xmm1 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
- .byte 68,15,40,13,84,8,1,0 // movaps 0x10854(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,13,1,11,1,0 // addps 0x10b01(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,249,4,1,0 // movaps 0x104f9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,120,14,1,0 // movaps 0x10e78(%rip),%xmm8 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,5,29,11,1,0 // movaps 0x10b1d(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,124,14,1,0 // addps 0x10e7c(%rip),%xmm8 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,5,33,11,1,0 // addps 0x10b21(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,32,8,1,0 // addps 0x10820(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,88,5,197,4,1,0 // addps 0x104c5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,116,14,1,0 // addps 0x10e74(%rip),%xmm8 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,25,11,1,0 // addps 0x10b19(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -42087,17 +41554,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,254,7,1,0 // movaps 0x107fe(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,5,163,4,1,0 // movaps 0x104a3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,38,14,1,0 // movaps 0x10e26(%rip),%xmm10 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,21,203,10,1,0 // movaps 0x10acb(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,42,14,1,0 // addps 0x10e2a(%rip),%xmm10 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,88,21,207,10,1,0 // addps 0x10acf(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,38,14,1,0 // addps 0x10e26(%rip),%xmm10 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,21,203,10,1,0 // addps 0x10acb(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -42109,11 +41576,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,245,13,1,0 // addps 0x10df5(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 15,88,13,154,10,1,0 // addps 0x10a9a(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,197,13,1,0 // mulps 0x10dc5(%rip),%xmm8 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
- .byte 68,15,88,5,157,9,1,0 // addps 0x1099d(%rip),%xmm8 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
+ .byte 68,15,89,5,106,10,1,0 // mulps 0x10a6a(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,66,6,1,0 // addps 0x10642(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -42258,7 +41725,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,12,12,1,0 // movdqa 0x10c0c(%rip),%xmm8 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,68,15,111,5,177,8,1,0 // movdqa 0x108b1(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -42297,7 +41764,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,19,5,1,0 // movdqa 0x10513(%rip),%xmm12 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,37,184,1,1,0 // movdqa 0x101b8(%rip),%xmm12 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42313,7 +41780,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,248,10,1,0 // movaps 0x10af8(%rip),%xmm4 # 3bef0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
+ .byte 15,40,37,157,7,1,0 // movaps 0x1079d(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -42349,7 +41816,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,109,10,1,0 // psubd 0x10a6d(%rip),%xmm1 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,13,18,7,1,0 // psubd 0x10712(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42439,7 +41906,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,133,2,1,0 // movdqa 0x10285(%rip),%xmm13 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,45,42,255,0,0 // movdqa 0xff2a(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -42536,7 +42003,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,8,7,1,0 // movdqa 0x10708(%rip),%xmm3 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,29,173,3,1,0 // movdqa 0x103ad(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -42574,7 +42041,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,24,0,1,0 // movdqa 0x10018(%rip),%xmm0 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,111,5,189,252,0,0 // movdqa 0xfcbd(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42655,7 +42122,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,229,4,1,0 // movdqa 0x104e5(%rip),%xmm1 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,13,138,1,1,0 // movdqa 0x1018a(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -42677,7 +42144,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,138,4,1,0 // psubd 0x1048a(%rip),%xmm1 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,13,47,1,1,0 // psubd 0x1012f(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42692,7 +42159,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,245,253,0,0 // paddd 0xfdf5(%rip),%xmm0 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,5,154,250,0,0 // paddd 0xfa9a(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42729,7 +42196,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,148,3,1,0 // psubd 0x10394(%rip),%xmm1 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,13,57,0,1,0 // psubd 0x10039(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42744,7 +42211,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,255,252,0,0 // paddd 0xfcff(%rip),%xmm2 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,21,164,249,0,0 // paddd 0xf9a4(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42890,7 +42357,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,215,0,1,0 // movdqa 0x100d7(%rip),%xmm4 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,37,124,253,0,0 // movdqa 0xfd7c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -42929,7 +42396,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,225,249,0,0 // paddd 0xf9e1(%rip),%xmm0 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,5,134,246,0,0 // paddd 0xf686(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -42944,7 +42411,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,203,255,0,0 // movaps 0xffcb(%rip),%xmm6 # 3bef0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
+ .byte 15,40,53,112,252,0,0 // movaps 0xfc70(%rip),%xmm6 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -42962,7 +42429,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,129,255,0,0 // movdqa 0xff81(%rip),%xmm1 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,13,38,252,0,0 // movdqa 0xfc26(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -42983,7 +42450,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,44,255,0,0 // psubd 0xff2c(%rip),%xmm0 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,5,209,251,0,0 // psubd 0xfbd1(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42998,7 +42465,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,148,248,0,0 // paddd 0xf894(%rip),%xmm1 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,13,57,245,0,0 // paddd 0xf539(%rip),%xmm1 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43036,7 +42503,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,43,254,0,0 // movdqa 0xfe2b(%rip),%xmm4 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,37,208,250,0,0 // movdqa 0xfad0(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -43074,7 +42541,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,55,247,0,0 // movdqa 0xf737(%rip),%xmm8 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,5,220,243,0,0 // movdqa 0xf3dc(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -43220,7 +42687,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,145,244,0,0 // movdqa 0xf491(%rip),%xmm15 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,61,54,241,0,0 // movdqa 0xf136(%rip),%xmm15 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -43303,7 +42770,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,96,249,0,0 // movdqa 0xf960(%rip),%xmm5 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,45,5,246,0,0 // movdqa 0xf605(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -43324,7 +42791,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,9,249,0,0 // psubd 0xf909(%rip),%xmm5 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,45,174,245,0,0 // psubd 0xf5ae(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -43356,7 +42823,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,103,248,0,0 // movdqa 0xf867(%rip),%xmm3 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,29,12,245,0,0 // movdqa 0xf50c(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -43377,7 +42844,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,7,248,0,0 // psubd 0xf807(%rip),%xmm5 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,45,172,244,0,0 // psubd 0xf4ac(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -43392,7 +42859,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,113,241,0,0 // movdqa 0xf171(%rip),%xmm9 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,13,22,238,0,0 // movdqa 0xee16(%rip),%xmm9 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43454,7 +42921,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,162,246,0,0 // movdqa 0xf6a2(%rip),%xmm2 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,21,71,243,0,0 // movdqa 0xf347(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -43647,7 +43114,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,62,243,0,0 // psubd 0xf33e(%rip),%xmm2 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,21,227,239,0,0 // psubd 0xefe3(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43707,7 +43174,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,29,242,0,0 // movdqa 0xf21d(%rip),%xmm8 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,68,15,111,5,194,238,0,0 // movdqa 0xeec2(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -43745,7 +43212,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,43,235,0,0 // movdqa 0xeb2b(%rip),%xmm8 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,5,208,231,0,0 // movdqa 0xe7d0(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43828,7 +43295,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,247,239,0,0 // movdqa 0xeff7(%rip),%xmm4 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
+ .byte 102,15,111,37,156,236,0,0 // movdqa 0xec9c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -43849,7 +43316,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,160,239,0,0 // psubd 0xefa0(%rip),%xmm1 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,13,69,236,0,0 // psubd 0xec45(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43864,7 +43331,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,9,233,0,0 // paddd 0xe909(%rip),%xmm0 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,5,174,229,0,0 // paddd 0xe5ae(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -43902,7 +43369,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,168,238,0,0 // psubd 0xeea8(%rip),%xmm1 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
+ .byte 102,15,250,13,77,235,0,0 // psubd 0xeb4d(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43917,7 +43384,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,19,232,0,0 // paddd 0xe813(%rip),%xmm2 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,15,254,21,184,228,0,0 // paddd 0xe4b8(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43976,7 +43443,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,255,230,0,0 // movaps 0xe6ff(%rip),%xmm3 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,29,164,227,0,0 // movaps 0xe3a4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -43989,186 +43456,21 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,100,237,0,0 // movaps 0xed64(%rip),%xmm0 # 3bf20 <_sk_srcover_bgra_8888_sse2_lowp+0x1330>
+ .byte 15,40,5,9,234,0,0 // movaps 0xea09(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,106,237,0,0 // addps 0xed6a(%rip),%xmm0 # 3bf30 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
+ .byte 15,88,5,15,234,0,0 // addps 0xea0f(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,112,237,0,0 // addps 0xed70(%rip),%xmm0 # 3bf40 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
+ .byte 15,88,5,21,234,0,0 // addps 0xea15(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,118,237,0,0 // addps 0xed76(%rip),%xmm0 # 3bf50 <_sk_srcover_bgra_8888_sse2_lowp+0x1360>
+ .byte 15,88,5,27,234,0,0 // addps 0xea1b(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,124,237,0,0 // addps 0xed7c(%rip),%xmm0 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x1370>
+ .byte 15,88,5,33,234,0,0 // addps 0xea21(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 255,224 // jmpq *%rax
-HIDDEN _sk_bilerp_clamp_8888_sse2
-.globl _sk_bilerp_clamp_8888_sse2
-FUNCTION(_sk_bilerp_clamp_8888_sse2)
-_sk_bilerp_clamp_8888_sse2:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,129,236,200,0,0,0 // sub $0xc8,%rsp
- .byte 15,41,125,160 // movaps %xmm7,-0x60(%rbp)
- .byte 15,41,117,176 // movaps %xmm6,-0x50(%rbp)
- .byte 15,41,109,192 // movaps %xmm5,-0x40(%rbp)
- .byte 15,41,101,208 // movaps %xmm4,-0x30(%rbp)
- .byte 76,141,69,224 // lea -0x20(%rbp),%r8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,37,98,230,0,0 // movaps 0xe662(%rip),%xmm4 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
- .byte 15,41,133,32,255,255,255 // movaps %xmm0,-0xe0(%rbp)
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 243,15,91,197 // cvttps2dq %xmm5,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 15,40,53,80,230,0,0 // movaps 0xe650(%rip),%xmm6 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
- .byte 15,84,214 // andps %xmm6,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,41,141,80,255,255,255 // movaps %xmm1,-0xb0(%rbp)
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,194,209,1 // cmpltps %xmm1,%xmm2
- .byte 15,84,214 // andps %xmm6,%xmm2
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 73,185,0,0,0,191,0,0,0,63 // movabs $0x3f000000bf000000,%r9
- .byte 77,137,8 // mov %r9,(%r8)
- .byte 76,141,77,232 // lea -0x18(%rbp),%r9
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,41,173,48,255,255,255 // movaps %xmm5,-0xd0(%rbp)
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,41,133,64,255,255,255 // movaps %xmm0,-0xc0(%rbp)
- .byte 15,41,165,96,255,255,255 // movaps %xmm4,-0xa0(%rbp)
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,41,117,144 // movaps %xmm6,-0x70(%rbp)
- .byte 243,68,15,16,112,12 // movss 0xc(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 102,68,15,254,241 // paddd %xmm1,%xmm14
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,127,133,112,255,255,255 // movdqa %xmm0,-0x90(%rbp)
- .byte 76,139,16 // mov (%rax),%r10
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,193,0 // pshufd $0x0,%xmm1,%xmm0
- .byte 102,15,127,69,128 // movdqa %xmm0,-0x80(%rbp)
- .byte 243,15,16,13,9,221,0,0 // movss 0xdd09(%rip),%xmm1 # 3afec <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 102,15,111,53,85,230,0,0 // movdqa 0xe655(%rip),%xmm6 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
- .byte 15,40,45,174,231,0,0 // movaps 0xe7ae(%rip),%xmm5 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 235,5 // jmp 2d304 <_sk_bilerp_clamp_8888_sse2+0x113>
- .byte 243,65,15,16,8 // movss (%r8),%xmm1
- .byte 15,46,13,29,221,0,0 // ucomiss 0xdd1d(%rip),%xmm1 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,141,80,255,255,255 // addps -0xb0(%rbp),%xmm1
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 68,15,40,149,96,255,255,255 // movaps -0xa0(%rbp),%xmm10
- .byte 119,5 // ja 2d32b <_sk_bilerp_clamp_8888_sse2+0x13a>
- .byte 68,15,40,85,144 // movaps -0x70(%rbp),%xmm10
- .byte 15,93,165,112,255,255,255 // minps -0x90(%rbp),%xmm4
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,111,69,128 // movdqa -0x80(%rbp),%xmm0
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,244,225 // pmuludq %xmm1,%xmm4
- .byte 102,68,15,112,220,232 // pshufd $0xe8,%xmm4,%xmm11
- .byte 102,15,112,201,245 // pshufd $0xf5,%xmm1,%xmm1
- .byte 102,15,112,248,245 // pshufd $0xf5,%xmm0,%xmm7
- .byte 102,15,244,249 // pmuludq %xmm1,%xmm7
- .byte 102,15,112,207,232 // pshufd $0xe8,%xmm7,%xmm1
- .byte 102,68,15,98,217 // punpckldq %xmm1,%xmm11
- .byte 69,49,219 // xor %r11d,%r11d
- .byte 243,66,15,16,76,29,224 // movss -0x20(%rbp,%r11,1),%xmm1
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,88,189,32,255,255,255 // addps -0xe0(%rbp),%xmm7
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,95,231 // maxps %xmm7,%xmm4
- .byte 65,15,93,230 // minps %xmm14,%xmm4
- .byte 243,15,91,228 // cvttps2dq %xmm4,%xmm4
- .byte 102,65,15,254,227 // paddd %xmm11,%xmm4
- .byte 102,15,112,252,78 // pshufd $0x4e,%xmm4,%xmm7
- .byte 102,72,15,126,248 // movq %xmm7,%rax
- .byte 65,137,198 // mov %eax,%r14d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,72,15,126,227 // movq %xmm4,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,65,15,110,36,154 // movd (%r10,%rbx,4),%xmm4
- .byte 102,67,15,110,60,186 // movd (%r10,%r15,4),%xmm7
- .byte 102,15,98,252 // punpckldq %xmm4,%xmm7
- .byte 102,65,15,110,36,130 // movd (%r10,%rax,4),%xmm4
- .byte 102,67,15,110,4,178 // movd (%r10,%r14,4),%xmm0
- .byte 102,15,98,196 // punpckldq %xmm4,%xmm0
- .byte 102,15,108,248 // punpcklqdq %xmm0,%xmm7
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,219,198 // pand %xmm6,%xmm0
- .byte 68,15,91,248 // cvtdq2ps %xmm0,%xmm15
- .byte 68,15,89,253 // mulps %xmm5,%xmm15
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,114,208,8 // psrld $0x8,%xmm0
- .byte 102,15,219,198 // pand %xmm6,%xmm0
- .byte 68,15,91,224 // cvtdq2ps %xmm0,%xmm12
- .byte 68,15,89,229 // mulps %xmm5,%xmm12
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,219,198 // pand %xmm6,%xmm0
- .byte 68,15,91,232 // cvtdq2ps %xmm0,%xmm13
- .byte 68,15,89,237 // mulps %xmm5,%xmm13
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,46,13,14,220,0,0 // ucomiss 0xdc0e(%rip),%xmm1 # 3b028 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 15,40,141,48,255,255,255 // movaps -0xd0(%rbp),%xmm1
- .byte 119,7 // ja 2d42a <_sk_bilerp_clamp_8888_sse2+0x239>
- .byte 15,40,141,64,255,255,255 // movaps -0xc0(%rbp),%xmm1
- .byte 65,15,89,202 // mulps %xmm10,%xmm1
- .byte 68,15,89,249 // mulps %xmm1,%xmm15
- .byte 69,15,88,207 // addps %xmm15,%xmm9
- .byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 69,15,88,196 // addps %xmm12,%xmm8
- .byte 68,15,89,233 // mulps %xmm1,%xmm13
- .byte 65,15,88,213 // addps %xmm13,%xmm2
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 73,131,195,4 // add $0x4,%r11
- .byte 73,131,251,8 // cmp $0x8,%r11
- .byte 15,133,10,255,255,255 // jne 2d364 <_sk_bilerp_clamp_8888_sse2+0x173>
- .byte 73,131,192,4 // add $0x4,%r8
- .byte 77,57,200 // cmp %r9,%r8
- .byte 15,133,152,254,255,255 // jne 2d2ff <_sk_bilerp_clamp_8888_sse2+0x10e>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,40,101,208 // movaps -0x30(%rbp),%xmm4
- .byte 15,40,109,192 // movaps -0x40(%rbp),%xmm5
- .byte 15,40,117,176 // movaps -0x50(%rbp),%xmm6
- .byte 15,40,125,160 // movaps -0x60(%rbp),%xmm7
- .byte 255,208 // callq *%rax
- .byte 72,129,196,200,0,0,0 // add $0xc8,%rsp
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
- .byte 144 // nop
- .byte 144 // nop
- .byte 144 // nop
-
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
FUNCTION(_sk_start_pipeline_hsw_lowp)
@@ -44190,13 +43492,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2d55e <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2c8d6 <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2d520 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2c898 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -44215,10 +43517,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2d4e1 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2c859 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2d551 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2c8c9 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -44232,7 +43534,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2d4d3 <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2c84b <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -44262,7 +43564,7 @@ _sk_seed_shader_hsw_lowp:
.byte 197,249,110,209 // vmovd %ecx,%xmm2
.byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,218 // vmovaps %ymm2,%ymm3
@@ -44378,7 +43680,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,156,222,0,0 // vpbroadcastw 0xde9c(%rip),%ymm3 # 3b5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x9d0>
+ .byte 196,226,125,121,29,228,221,0,0 // vpbroadcastw 0xdde4(%rip),%ymm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x918>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -44389,7 +43691,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,133,222,0,0 // vpbroadcastw 0xde85(%rip),%ymm0 # 3b5c2 <_sk_srcover_bgra_8888_sse2_lowp+0x9d2>
+ .byte 196,226,125,121,5,205,221,0,0 // vpbroadcastw 0xddcd(%rip),%ymm0 # 3a882 <_sk_srcover_bgra_8888_sse2_lowp+0x91a>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -44400,8 +43702,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -44444,7 +43746,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,238,221,0,0 // vpbroadcastw 0xddee(%rip),%ymm8 # 3b5c4 <_sk_srcover_bgra_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,121,5,54,221,0,0 // vpbroadcastw 0xdd36(%rip),%ymm8 # 3a884 <_sk_srcover_bgra_8888_sse2_lowp+0x91c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -44461,7 +43763,7 @@ HIDDEN _sk_premul_dst_hsw_lowp
FUNCTION(_sk_premul_dst_hsw_lowp)
_sk_premul_dst_hsw_lowp:
.byte 197,197,213,228 // vpmullw %ymm4,%ymm7,%ymm4
- .byte 196,98,125,121,5,185,221,0,0 // vpbroadcastw 0xddb9(%rip),%ymm8 # 3b5c6 <_sk_srcover_bgra_8888_sse2_lowp+0x9d6>
+ .byte 196,98,125,121,5,1,221,0,0 // vpbroadcastw 0xdd01(%rip),%ymm8 # 3a886 <_sk_srcover_bgra_8888_sse2_lowp+0x91e>
.byte 196,193,93,253,224 // vpaddw %ymm8,%ymm4,%ymm4
.byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
.byte 197,197,213,237 // vpmullw %ymm5,%ymm7,%ymm5
@@ -44509,7 +43811,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,80,221,0,0 // vpbroadcastw 0xdd50(%rip),%ymm8 # 3b5c8 <_sk_srcover_bgra_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,121,5,152,220,0,0 // vpbroadcastw 0xdc98(%rip),%ymm8 # 3a888 <_sk_srcover_bgra_8888_sse2_lowp+0x920>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -44533,7 +43835,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,29,221,0,0 // vpbroadcastw 0xdd1d(%rip),%ymm8 # 3b5ca <_sk_srcover_bgra_8888_sse2_lowp+0x9da>
+ .byte 196,98,125,121,5,101,220,0,0 // vpbroadcastw 0xdc65(%rip),%ymm8 # 3a88a <_sk_srcover_bgra_8888_sse2_lowp+0x922>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44560,7 +43862,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,189,220,0,0 // vpbroadcastw 0xdcbd(%rip),%ymm9 # 3b5cc <_sk_srcover_bgra_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,121,13,5,220,0,0 // vpbroadcastw 0xdc05(%rip),%ymm9 # 3a88c <_sk_srcover_bgra_8888_sse2_lowp+0x924>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -44587,7 +43889,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,90,220,0,0 // vpbroadcastw 0xdc5a(%rip),%ymm8 # 3b5ce <_sk_srcover_bgra_8888_sse2_lowp+0x9de>
+ .byte 196,98,125,121,5,162,219,0,0 // vpbroadcastw 0xdba2(%rip),%ymm8 # 3a88e <_sk_srcover_bgra_8888_sse2_lowp+0x926>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -44607,7 +43909,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,23,220,0,0 // vpbroadcastw 0xdc17(%rip),%ymm8 # 3b5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,121,5,95,219,0,0 // vpbroadcastw 0xdb5f(%rip),%ymm8 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x928>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -44626,7 +43928,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,216,219,0,0 // vpbroadcastw 0xdbd8(%rip),%ymm8 # 3b5d2 <_sk_srcover_bgra_8888_sse2_lowp+0x9e2>
+ .byte 196,98,125,121,5,32,219,0,0 // vpbroadcastw 0xdb20(%rip),%ymm8 # 3a892 <_sk_srcover_bgra_8888_sse2_lowp+0x92a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44647,7 +43949,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,145,219,0,0 // vpbroadcastw 0xdb91(%rip),%ymm8 # 3b5d4 <_sk_srcover_bgra_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,121,5,217,218,0,0 // vpbroadcastw 0xdad9(%rip),%ymm8 # 3a894 <_sk_srcover_bgra_8888_sse2_lowp+0x92c>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44668,7 +43970,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,74,219,0,0 // vpbroadcastw 0xdb4a(%rip),%ymm8 # 3b5d6 <_sk_srcover_bgra_8888_sse2_lowp+0x9e6>
+ .byte 196,98,125,121,5,146,218,0,0 // vpbroadcastw 0xda92(%rip),%ymm8 # 3a896 <_sk_srcover_bgra_8888_sse2_lowp+0x92e>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -44693,7 +43995,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,239,218,0,0 // vpbroadcastw 0xdaef(%rip),%ymm8 # 3b5d8 <_sk_srcover_bgra_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,121,5,55,218,0,0 // vpbroadcastw 0xda37(%rip),%ymm8 # 3a898 <_sk_srcover_bgra_8888_sse2_lowp+0x930>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44719,7 +44021,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,148,218,0,0 // vpbroadcastw 0xda94(%rip),%ymm8 # 3b5da <_sk_srcover_bgra_8888_sse2_lowp+0x9ea>
+ .byte 196,98,125,121,5,220,217,0,0 // vpbroadcastw 0xd9dc(%rip),%ymm8 # 3a89a <_sk_srcover_bgra_8888_sse2_lowp+0x932>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -44738,7 +44040,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,85,218,0,0 // vpbroadcastw 0xda55(%rip),%ymm8 # 3b5dc <_sk_srcover_bgra_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,121,5,157,217,0,0 // vpbroadcastw 0xd99d(%rip),%ymm8 # 3a89c <_sk_srcover_bgra_8888_sse2_lowp+0x934>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -44774,7 +44076,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,203,217,0,0 // vpbroadcastw 0xd9cb(%rip),%ymm8 # 3b5de <_sk_srcover_bgra_8888_sse2_lowp+0x9ee>
+ .byte 196,98,125,121,5,19,217,0,0 // vpbroadcastw 0xd913(%rip),%ymm8 # 3a89e <_sk_srcover_bgra_8888_sse2_lowp+0x936>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -44791,7 +44093,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,152,217,0,0 // vpbroadcastw 0xd998(%rip),%ymm9 # 3b5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,121,13,224,216,0,0 // vpbroadcastw 0xd8e0(%rip),%ymm9 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x938>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44817,7 +44119,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,61,217,0,0 // vpbroadcastw 0xd93d(%rip),%ymm8 # 3b5e2 <_sk_srcover_bgra_8888_sse2_lowp+0x9f2>
+ .byte 196,98,125,121,5,133,216,0,0 // vpbroadcastw 0xd885(%rip),%ymm8 # 3a8a2 <_sk_srcover_bgra_8888_sse2_lowp+0x93a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -44851,7 +44153,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,193,216,0,0 // vpbroadcastw 0xd8c1(%rip),%ymm9 # 3b5e4 <_sk_srcover_bgra_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,121,13,9,216,0,0 // vpbroadcastw 0xd809(%rip),%ymm9 # 3a8a4 <_sk_srcover_bgra_8888_sse2_lowp+0x93c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44885,7 +44187,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,66,216,0,0 // vpbroadcastw 0xd842(%rip),%ymm9 # 3b5e6 <_sk_srcover_bgra_8888_sse2_lowp+0x9f6>
+ .byte 196,98,125,121,13,138,215,0,0 // vpbroadcastw 0xd78a(%rip),%ymm9 # 3a8a6 <_sk_srcover_bgra_8888_sse2_lowp+0x93e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44919,10 +44221,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,195,215,0,0 // vpbroadcastw 0xd7c3(%rip),%ymm9 # 3b5e8 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,121,13,11,215,0,0 // vpbroadcastw 0xd70b(%rip),%ymm9 # 3a8a8 <_sk_srcover_bgra_8888_sse2_lowp+0x940>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,178,215,0,0 // vpbroadcastw 0xd7b2(%rip),%ymm10 # 3b5ea <_sk_srcover_bgra_8888_sse2_lowp+0x9fa>
+ .byte 196,98,125,121,21,250,214,0,0 // vpbroadcastw 0xd6fa(%rip),%ymm10 # 3a8aa <_sk_srcover_bgra_8888_sse2_lowp+0x942>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44955,10 +44257,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,55,215,0,0 // vpbroadcastw 0xd737(%rip),%ymm9 # 3b5ec <_sk_srcover_bgra_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,121,13,127,214,0,0 // vpbroadcastw 0xd67f(%rip),%ymm9 # 3a8ac <_sk_srcover_bgra_8888_sse2_lowp+0x944>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,38,215,0,0 // vpbroadcastw 0xd726(%rip),%ymm10 # 3b5ee <_sk_srcover_bgra_8888_sse2_lowp+0x9fe>
+ .byte 196,98,125,121,21,110,214,0,0 // vpbroadcastw 0xd66e(%rip),%ymm10 # 3a8ae <_sk_srcover_bgra_8888_sse2_lowp+0x946>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44986,7 +44288,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,195,214,0,0 // vpbroadcastw 0xd6c3(%rip),%ymm9 # 3b5f2 <_sk_srcover_bgra_8888_sse2_lowp+0xa02>
+ .byte 196,98,125,121,13,11,214,0,0 // vpbroadcastw 0xd60b(%rip),%ymm9 # 3a8b2 <_sk_srcover_bgra_8888_sse2_lowp+0x94a>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -45014,7 +44316,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,58,214,0,0 // vpbroadcastw 0xd63a(%rip),%ymm14 # 3b5f0 <_sk_srcover_bgra_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,121,53,130,213,0,0 // vpbroadcastw 0xd582(%rip),%ymm14 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x948>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -45051,7 +44353,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,175,213,0,0 // vpbroadcastw 0xd5af(%rip),%ymm9 # 3b5f6 <_sk_srcover_bgra_8888_sse2_lowp+0xa06>
+ .byte 196,98,125,121,13,247,212,0,0 // vpbroadcastw 0xd4f7(%rip),%ymm9 # 3a8b6 <_sk_srcover_bgra_8888_sse2_lowp+0x94e>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -45075,7 +44377,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,55,213,0,0 // vpbroadcastw 0xd537(%rip),%ymm13 # 3b5f4 <_sk_srcover_bgra_8888_sse2_lowp+0xa04>
+ .byte 196,98,125,121,45,127,212,0,0 // vpbroadcastw 0xd47f(%rip),%ymm13 # 3a8b4 <_sk_srcover_bgra_8888_sse2_lowp+0x94c>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -45127,10 +44429,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2e1b3 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2d52b <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2e32c <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45140,10 +44442,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2e2da <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2e2da <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -45152,7 +44454,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2e2da <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45168,7 +44470,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2e2da <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45178,7 +44480,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2e2da <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45198,7 +44500,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,253,210,0,0 // vmovdqa 0xd2fd(%rip),%ymm8 # 3b600 <_sk_srcover_bgra_8888_sse2_lowp+0xa10>
+ .byte 197,125,111,5,69,210,0,0 // vmovdqa 0xd245(%rip),%ymm8 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x958>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -45209,7 +44511,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 120,254 // js 2e32c <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 120,254 // js 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 255 // (bad)
.byte 255,175,254,255,255,153 // ljmp *-0x66000002(%rdi)
.byte 254 // (bad)
@@ -45257,10 +44559,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2e3ba <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2d732 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2e534 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45270,10 +44572,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2e4e1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2e4e1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -45282,7 +44584,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2e4e1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45298,7 +44600,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2e4e1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45308,7 +44610,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2e4e1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45328,7 +44630,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,22,209,0,0 // vmovdqa 0xd116(%rip),%ymm8 # 3b620 <_sk_srcover_bgra_8888_sse2_lowp+0xa30>
+ .byte 197,125,111,5,94,208,0,0 // vmovdqa 0xd05e(%rip),%ymm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x978>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -45339,7 +44641,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2e534 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45400,20 +44702,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2e5f1 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2d969 <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e6a0 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2da18 <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2e69c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2e69c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2e69c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45421,12 +44723,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2e69c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2e69c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -45483,10 +44785,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2e72e <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2daa6 <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2e8a8 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45496,10 +44798,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2e855 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2e855 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -45508,7 +44810,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2e855 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45524,7 +44826,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2e855 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45534,7 +44836,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2e855 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45554,7 +44856,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,194,205,0,0 // vmovdqa 0xcdc2(%rip),%ymm8 # 3b640 <_sk_srcover_bgra_8888_sse2_lowp+0xa50>
+ .byte 197,125,111,5,10,205,0,0 // vmovdqa 0xcd0a(%rip),%ymm8 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x998>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -45565,7 +44867,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2e8a8 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45612,10 +44914,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2e936 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2dcae <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2eab0 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45625,10 +44927,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2ea5d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2ea5d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -45637,7 +44939,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2ea5d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45653,7 +44955,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2ea5d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45663,7 +44965,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2ea5d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45683,7 +44985,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,218,203,0,0 // vmovdqa 0xcbda(%rip),%ymm8 # 3b660 <_sk_srcover_bgra_8888_sse2_lowp+0xa70>
+ .byte 197,125,111,5,34,203,0,0 // vmovdqa 0xcb22(%rip),%ymm8 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x9b8>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -45694,7 +44996,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2eab0 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45755,20 +45057,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2eb6d <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2dee5 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2ec1c <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2df94 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2ec18 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2ec18 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2ec18 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45776,12 +45078,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2ec18 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2ec18 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -45864,7 +45166,7 @@ _sk_gather_8888_hsw_lowp:
.byte 196,195,101,14,194,170 // vpblendw $0xaa,%ymm10,%ymm3,%ymm0
.byte 196,195,109,14,202,170 // vpblendw $0xaa,%ymm10,%ymm2,%ymm1
.byte 196,226,117,43,200 // vpackusdw %ymm0,%ymm1,%ymm1
- .byte 197,125,111,5,118,201,0,0 // vmovdqa 0xc976(%rip),%ymm8 # 3b680 <_sk_srcover_bgra_8888_sse2_lowp+0xa90>
+ .byte 197,125,111,5,190,200,0,0 // vmovdqa 0xc8be(%rip),%ymm8 # 3a940 <_sk_srcover_bgra_8888_sse2_lowp+0x9d8>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -45914,7 +45216,7 @@ _sk_gather_bgra_hsw_lowp:
.byte 196,195,125,14,202,170 // vpblendw $0xaa,%ymm10,%ymm0,%ymm1
.byte 196,195,61,14,210,170 // vpblendw $0xaa,%ymm10,%ymm8,%ymm2
.byte 196,226,109,43,201 // vpackusdw %ymm1,%ymm2,%ymm1
- .byte 197,253,111,29,189,200,0,0 // vmovdqa 0xc8bd(%rip),%ymm3 # 3b6a0 <_sk_srcover_bgra_8888_sse2_lowp+0xab0>
+ .byte 197,253,111,29,5,200,0,0 // vmovdqa 0xc805(%rip),%ymm3 # 3a960 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
.byte 197,245,219,211 // vpand %ymm3,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -45938,24 +45240,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2ee49 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2e1c1 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2efb4 <_sk_load_565_hsw_lowp+0x1aa>
+ .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2e32c <_sk_load_565_hsw_lowp+0x1aa>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2ef51 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2ef51 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2ef51 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -45965,7 +45267,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2ef51 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45977,7 +45279,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2ef51 <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45991,13 +45293,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,102,199,0,0 // vpbroadcastw 0xc766(%rip),%ymm1 # 3b6c0 <_sk_srcover_bgra_8888_sse2_lowp+0xad0>
+ .byte 196,226,125,121,13,174,198,0,0 // vpbroadcastw 0xc6ae(%rip),%ymm1 # 3a980 <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,81,199,0,0 // vpbroadcastw 0xc751(%rip),%ymm3 # 3b6c2 <_sk_srcover_bgra_8888_sse2_lowp+0xad2>
+ .byte 196,226,125,121,29,153,198,0,0 // vpbroadcastw 0xc699(%rip),%ymm3 # 3a982 <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,70,199,0,0 // vpbroadcastw 0xc746(%rip),%ymm3 # 3b6c4 <_sk_srcover_bgra_8888_sse2_lowp+0xad4>
+ .byte 196,226,125,121,29,142,198,0,0 // vpbroadcastw 0xc68e(%rip),%ymm3 # 3a984 <_sk_srcover_bgra_8888_sse2_lowp+0xa1c>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -46008,7 +45310,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,20,199,0,0 // vpbroadcastw 0xc714(%rip),%ymm3 # 3b6c6 <_sk_srcover_bgra_8888_sse2_lowp+0xad6>
+ .byte 196,226,125,121,29,92,198,0,0 // vpbroadcastw 0xc65c(%rip),%ymm3 # 3a986 <_sk_srcover_bgra_8888_sse2_lowp+0xa1e>
.byte 255,224 // jmpq *%rax
.byte 135,254 // xchg %edi,%esi
.byte 255 // (bad)
@@ -46058,24 +45360,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f02f <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2e3a7 <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2f19c <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2e514 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2f137 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2f137 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2f137 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -46085,7 +45387,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2f137 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -46097,7 +45399,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2f137 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -46111,13 +45413,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,136,197,0,0 // vpbroadcastw 0xc588(%rip),%ymm5 # 3b6c8 <_sk_srcover_bgra_8888_sse2_lowp+0xad8>
+ .byte 196,226,125,121,45,208,196,0,0 // vpbroadcastw 0xc4d0(%rip),%ymm5 # 3a988 <_sk_srcover_bgra_8888_sse2_lowp+0xa20>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,115,197,0,0 // vpbroadcastw 0xc573(%rip),%ymm7 # 3b6ca <_sk_srcover_bgra_8888_sse2_lowp+0xada>
+ .byte 196,226,125,121,61,187,196,0,0 // vpbroadcastw 0xc4bb(%rip),%ymm7 # 3a98a <_sk_srcover_bgra_8888_sse2_lowp+0xa22>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,104,197,0,0 // vpbroadcastw 0xc568(%rip),%ymm7 # 3b6cc <_sk_srcover_bgra_8888_sse2_lowp+0xadc>
+ .byte 196,226,125,121,61,176,196,0,0 // vpbroadcastw 0xc4b0(%rip),%ymm7 # 3a98c <_sk_srcover_bgra_8888_sse2_lowp+0xa24>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -46128,7 +45430,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,54,197,0,0 // vpbroadcastw 0xc536(%rip),%ymm7 # 3b6ce <_sk_srcover_bgra_8888_sse2_lowp+0xade>
+ .byte 196,226,125,121,61,126,196,0,0 // vpbroadcastw 0xc47e(%rip),%ymm7 # 3a98e <_sk_srcover_bgra_8888_sse2_lowp+0xa26>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -46179,10 +45481,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,223,196,0,0 // vpbroadcastw 0xc4df(%rip),%ymm8 # 3b6d0 <_sk_srcover_bgra_8888_sse2_lowp+0xae0>
+ .byte 196,98,125,121,5,39,196,0,0 // vpbroadcastw 0xc427(%rip),%ymm8 # 3a990 <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,206,196,0,0 // vpbroadcastw 0xc4ce(%rip),%ymm9 # 3b6d2 <_sk_srcover_bgra_8888_sse2_lowp+0xae2>
+ .byte 196,98,125,121,13,22,196,0,0 // vpbroadcastw 0xc416(%rip),%ymm9 # 3a992 <_sk_srcover_bgra_8888_sse2_lowp+0xa2a>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -46192,31 +45494,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2f246 <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2e5be <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2f2f4 <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e66c <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2f2ed <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2f2ed <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2f2ed <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2f2ed <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2f2e7 <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2e65f <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -46239,7 +45541,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2f309 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2e681 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -46351,13 +45653,13 @@ _sk_gather_565_hsw_lowp:
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,226,125,121,13,18,194,0,0 // vpbroadcastw 0xc212(%rip),%ymm1 # 3b6d4 <_sk_srcover_bgra_8888_sse2_lowp+0xae4>
+ .byte 196,226,125,121,13,90,193,0,0 // vpbroadcastw 0xc15a(%rip),%ymm1 # 3a994 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,253,193,0,0 // vpbroadcastw 0xc1fd(%rip),%ymm3 # 3b6d6 <_sk_srcover_bgra_8888_sse2_lowp+0xae6>
+ .byte 196,226,125,121,29,69,193,0,0 // vpbroadcastw 0xc145(%rip),%ymm3 # 3a996 <_sk_srcover_bgra_8888_sse2_lowp+0xa2e>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,242,193,0,0 // vpbroadcastw 0xc1f2(%rip),%ymm3 # 3b6d8 <_sk_srcover_bgra_8888_sse2_lowp+0xae8>
+ .byte 196,226,125,121,29,58,193,0,0 // vpbroadcastw 0xc13a(%rip),%ymm3 # 3a998 <_sk_srcover_bgra_8888_sse2_lowp+0xa30>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -46368,7 +45670,7 @@ _sk_gather_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,192,193,0,0 // vpbroadcastw 0xc1c0(%rip),%ymm3 # 3b6da <_sk_srcover_bgra_8888_sse2_lowp+0xaea>
+ .byte 196,226,125,121,29,8,193,0,0 // vpbroadcastw 0xc108(%rip),%ymm3 # 3a99a <_sk_srcover_bgra_8888_sse2_lowp+0xa32>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_4444_hsw_lowp
@@ -46384,24 +45686,24 @@ _sk_load_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f55b <_sk_load_4444_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2e8d3 <_sk_load_4444_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2f6b4 <_sk_load_4444_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ea2c <_sk_load_4444_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2f663 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2f663 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2f663 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -46411,7 +45713,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2f663 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -46423,7 +45725,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2f663 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -46439,7 +45741,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,102,192,0,0 // vpbroadcastw 0xc066(%rip),%ymm3 # 3b6dc <_sk_srcover_bgra_8888_sse2_lowp+0xaec>
+ .byte 196,226,125,121,29,174,191,0,0 // vpbroadcastw 0xbfae(%rip),%ymm3 # 3a99c <_sk_srcover_bgra_8888_sse2_lowp+0xa34>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -46504,24 +45806,24 @@ _sk_load_4444_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f72f <_sk_load_4444_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2eaa7 <_sk_load_4444_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2f888 <_sk_load_4444_dst_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ec00 <_sk_load_4444_dst_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2f837 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2f837 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2f837 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -46531,7 +45833,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2f837 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -46543,7 +45845,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2f837 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -46559,7 +45861,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
.byte 197,213,113,212,12 // vpsrlw $0xc,%ymm4,%ymm5
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
- .byte 196,226,125,121,61,148,190,0,0 // vpbroadcastw 0xbe94(%rip),%ymm7 # 3b6de <_sk_srcover_bgra_8888_sse2_lowp+0xaee>
+ .byte 196,226,125,121,61,220,189,0,0 // vpbroadcastw 0xbddc(%rip),%ymm7 # 3a99e <_sk_srcover_bgra_8888_sse2_lowp+0xa36>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,189,113,212,4 // vpsrlw $0x4,%ymm4,%ymm8
.byte 197,61,219,199 // vpand %ymm7,%ymm8,%ymm8
@@ -46620,13 +45922,13 @@ _sk_store_4444_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,3,190,0,0 // vpbroadcastw 0xbe03(%rip),%ymm8 # 3b6e0 <_sk_srcover_bgra_8888_sse2_lowp+0xaf0>
+ .byte 196,98,125,121,5,75,189,0,0 // vpbroadcastw 0xbd4b(%rip),%ymm8 # 3a9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xa38>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
.byte 197,181,113,241,4 // vpsllw $0x4,%ymm1,%ymm9
- .byte 197,53,219,13,12,190,0,0 // vpand 0xbe0c(%rip),%ymm9,%ymm9 # 3b700 <_sk_srcover_bgra_8888_sse2_lowp+0xb10>
+ .byte 197,53,219,13,84,189,0,0 // vpand 0xbd54(%rip),%ymm9,%ymm9 # 3a9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xa58>
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,30,190,0,0 // vpbroadcastw 0xbe1e(%rip),%ymm9 # 3b720 <_sk_srcover_bgra_8888_sse2_lowp+0xb30>
+ .byte 196,98,125,121,13,102,189,0,0 // vpbroadcastw 0xbd66(%rip),%ymm9 # 3a9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xa78>
.byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9
.byte 197,173,113,211,4 // vpsrlw $0x4,%ymm3,%ymm10
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
@@ -46635,31 +45937,31 @@ _sk_store_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2f93f <_sk_store_4444_hsw_lowp+0x7b>
+ .byte 119,31 // ja 2ecb7 <_sk_store_4444_hsw_lowp+0x7b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2f9ec <_sk_store_4444_hsw_lowp+0x128>
+ .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2ed64 <_sk_store_4444_hsw_lowp+0x128>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2f9e6 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,167,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2f9e6 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,156,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2f9e6 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,137,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2f9e6 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 235,105 // jmp 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2f9e0 <_sk_store_4444_hsw_lowp+0x11c>
+ .byte 235,55 // jmp 2ed58 <_sk_store_4444_hsw_lowp+0x11c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -46682,7 +45984,7 @@ _sk_store_4444_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2fa01 <_sk_store_4444_hsw_lowp+0x13d>
+ .byte 121,255 // jns 2ed79 <_sk_store_4444_hsw_lowp+0x13d>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -46797,7 +46099,7 @@ _sk_gather_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,94,187,0,0 // vpbroadcastw 0xbb5e(%rip),%ymm3 # 3b722 <_sk_srcover_bgra_8888_sse2_lowp+0xb32>
+ .byte 196,226,125,121,29,166,186,0,0 // vpbroadcastw 0xbaa6(%rip),%ymm3 # 3a9e2 <_sk_srcover_bgra_8888_sse2_lowp+0xa7a>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -46825,38 +46127,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2fc3b <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2efb3 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2fd00 <_sk_load_a8_hsw_lowp+0x101>
+ .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2f078 <_sk_load_a8_hsw_lowp+0x101>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2fcea <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2fcea <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2fcea <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2fcea <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2fcea <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -46914,38 +46216,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2fd78 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2f0f0 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2fe3c <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2f1b4 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2fe27 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2fe27 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2fe27 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2fe27 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2fe27 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -47002,7 +46304,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,237,192,0,0 // vmovdqa 0xc0ed(%rip),%xmm9 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x1390>
+ .byte 197,121,111,13,53,192,0,0 // vmovdqa 0xc035(%rip),%xmm9 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -47010,28 +46312,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2fec8 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2f240 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2ff48 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2f2c0 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2ff41 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2ff41 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2ff41 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2ff41 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2ff3b <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2f2b3 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -47040,7 +46342,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2ff49 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2f2c1 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -47181,38 +46483,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 30167 <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2f4df <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 30230 <_sk_load_g8_hsw_lowp+0x105>
+ .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2f5a8 <_sk_load_g8_hsw_lowp+0x105>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 30216 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 30216 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 30216 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 30216 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 30216 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -47222,7 +46524,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,254,180,0,0 // vpbroadcastw 0xb4fe(%rip),%ymm3 # 3b724 <_sk_srcover_bgra_8888_sse2_lowp+0xb34>
+ .byte 196,226,125,121,29,70,180,0,0 // vpbroadcastw 0xb446(%rip),%ymm3 # 3a9e4 <_sk_srcover_bgra_8888_sse2_lowp+0xa7c>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -47233,7 +46535,7 @@ _sk_load_g8_hsw_lowp:
.byte 255,66,255 // incl -0x1(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 3023d <_sk_load_g8_hsw_lowp+0x112>
+ .byte 126,255 // jle 2f5b5 <_sk_load_g8_hsw_lowp+0x112>
.byte 255 // (bad)
.byte 255,118,255 // pushq -0x1(%rsi)
.byte 255 // (bad)
@@ -47273,38 +46575,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 302a8 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2f620 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 30374 <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2f6ec <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 30357 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 30357 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 30357 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 30357 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 30357 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -47314,7 +46616,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,191,179,0,0 // vpbroadcastw 0xb3bf(%rip),%ymm7 # 3b726 <_sk_srcover_bgra_8888_sse2_lowp+0xb36>
+ .byte 196,226,125,121,61,7,179,0,0 // vpbroadcastw 0xb307(%rip),%ymm7 # 3a9e6 <_sk_srcover_bgra_8888_sse2_lowp+0xa7e>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -47328,7 +46630,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 30381 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2f6f9 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -47358,12 +46660,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,111,179,0,0 // vpbroadcastw 0xb36f(%rip),%ymm3 # 3b728 <_sk_srcover_bgra_8888_sse2_lowp+0xb38>
+ .byte 196,226,125,121,29,183,178,0,0 // vpbroadcastw 0xb2b7(%rip),%ymm3 # 3a9e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa80>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,100,179,0,0 // vpbroadcastw 0xb364(%rip),%ymm3 # 3b72a <_sk_srcover_bgra_8888_sse2_lowp+0xb3a>
+ .byte 196,226,125,121,29,172,178,0,0 // vpbroadcastw 0xb2ac(%rip),%ymm3 # 3a9ea <_sk_srcover_bgra_8888_sse2_lowp+0xa82>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,85,179,0,0 // vpbroadcastw 0xb355(%rip),%ymm1 # 3b72c <_sk_srcover_bgra_8888_sse2_lowp+0xb3c>
+ .byte 196,226,125,121,13,157,178,0,0 // vpbroadcastw 0xb29d(%rip),%ymm1 # 3a9ec <_sk_srcover_bgra_8888_sse2_lowp+0xa84>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -47462,7 +46764,7 @@ _sk_gather_g8_hsw_lowp:
.byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,152,177,0,0 // vpbroadcastw 0xb198(%rip),%ymm3 # 3b72e <_sk_srcover_bgra_8888_sse2_lowp+0xb3e>
+ .byte 196,226,125,121,29,224,176,0,0 // vpbroadcastw 0xb0e0(%rip),%ymm3 # 3a9ee <_sk_srcover_bgra_8888_sse2_lowp+0xa86>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -47473,13 +46775,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,94,177,0,0 // vpbroadcastw 0xb15e(%rip),%ymm9 # 3b730 <_sk_srcover_bgra_8888_sse2_lowp+0xb40>
+ .byte 196,98,125,121,13,166,176,0,0 // vpbroadcastw 0xb0a6(%rip),%ymm9 # 3a9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xa88>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -47500,12 +46802,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,250,176,0,0 // vpbroadcastw 0xb0fa(%rip),%ymm9 # 3b732 <_sk_srcover_bgra_8888_sse2_lowp+0xb42>
+ .byte 196,98,125,121,13,66,176,0,0 // vpbroadcastw 0xb042(%rip),%ymm9 # 3a9f2 <_sk_srcover_bgra_8888_sse2_lowp+0xa8a>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -47542,38 +46844,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 306d6 <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2fa4e <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 307d4 <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2fb4c <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 30789 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 30789 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 30789 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 30789 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 30789 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -47583,7 +46885,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,153,175,0,0 // vpbroadcastw 0xaf99(%rip),%ymm9 # 3b734 <_sk_srcover_bgra_8888_sse2_lowp+0xb44>
+ .byte 196,98,125,121,13,225,174,0,0 // vpbroadcastw 0xaee1(%rip),%ymm9 # 3a9f4 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -47604,7 +46906,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c0307e0 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02fb58 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -47643,38 +46945,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 3084d <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2fbc5 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 30970 <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2fce8 <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 30900 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 30900 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 30900 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 30900 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 30900 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -47683,7 +46985,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,40,174,0,0 // vpbroadcastw 0xae28(%rip),%ymm9 # 3b736 <_sk_srcover_bgra_8888_sse2_lowp+0xb46>
+ .byte 196,98,125,121,13,112,173,0,0 // vpbroadcastw 0xad70(%rip),%ymm9 # 3a9f6 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -47715,7 +47017,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2703097b <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
+ .byte 232,254,255,255,38 // callq 2702fcf3 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -47736,7 +47038,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 3099d <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 2fd15 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -47757,24 +47059,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 309ec <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2fd64 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 30bd4 <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2ff4c <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 30af8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 30af8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 30af8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -47784,7 +47086,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 30af8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47796,7 +47098,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 30af8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47810,13 +47112,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,55,172,0,0 // vpbroadcastw 0xac37(%rip),%ymm9 # 3b738 <_sk_srcover_bgra_8888_sse2_lowp+0xb48>
+ .byte 196,98,125,121,13,127,171,0,0 // vpbroadcastw 0xab7f(%rip),%ymm9 # 3a9f8 <_sk_srcover_bgra_8888_sse2_lowp+0xa90>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,31,172,0,0 // vpbroadcastw 0xac1f(%rip),%ymm11 # 3b73a <_sk_srcover_bgra_8888_sse2_lowp+0xb4a>
+ .byte 196,98,125,121,29,103,171,0,0 // vpbroadcastw 0xab67(%rip),%ymm11 # 3a9fa <_sk_srcover_bgra_8888_sse2_lowp+0xa92>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,19,172,0,0 // vpbroadcastw 0xac13(%rip),%ymm11 # 3b73c <_sk_srcover_bgra_8888_sse2_lowp+0xb4c>
+ .byte 196,98,125,121,29,91,171,0,0 // vpbroadcastw 0xab5b(%rip),%ymm11 # 3a9fc <_sk_srcover_bgra_8888_sse2_lowp+0xa94>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -47826,7 +47128,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,218,171,0,0 // vpbroadcastw 0xabda(%rip),%ymm11 # 3b73e <_sk_srcover_bgra_8888_sse2_lowp+0xb4e>
+ .byte 196,98,125,121,29,34,171,0,0 // vpbroadcastw 0xab22(%rip),%ymm11 # 3a9fe <_sk_srcover_bgra_8888_sse2_lowp+0xa96>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -47836,7 +47138,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,166,171,0,0 // vpbroadcastw 0xaba6(%rip),%ymm8 # 3b740 <_sk_srcover_bgra_8888_sse2_lowp+0xb50>
+ .byte 196,98,125,121,5,238,170,0,0 // vpbroadcastw 0xaaee(%rip),%ymm8 # 3aa00 <_sk_srcover_bgra_8888_sse2_lowp+0xa98>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -47900,24 +47202,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 30c50 <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2ffc8 <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 30e6c <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 301e4 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 30d5c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 30d5c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 30d5c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -47927,7 +47229,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 30d5c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47939,7 +47241,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 30d5c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47953,13 +47255,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,221,169,0,0 // vpbroadcastw 0xa9dd(%rip),%ymm9 # 3b742 <_sk_srcover_bgra_8888_sse2_lowp+0xb52>
+ .byte 196,98,125,121,13,37,169,0,0 // vpbroadcastw 0xa925(%rip),%ymm9 # 3aa02 <_sk_srcover_bgra_8888_sse2_lowp+0xa9a>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,197,169,0,0 // vpbroadcastw 0xa9c5(%rip),%ymm11 # 3b744 <_sk_srcover_bgra_8888_sse2_lowp+0xb54>
+ .byte 196,98,125,121,29,13,169,0,0 // vpbroadcastw 0xa90d(%rip),%ymm11 # 3aa04 <_sk_srcover_bgra_8888_sse2_lowp+0xa9c>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,185,169,0,0 // vpbroadcastw 0xa9b9(%rip),%ymm11 # 3b746 <_sk_srcover_bgra_8888_sse2_lowp+0xb56>
+ .byte 196,98,125,121,29,1,169,0,0 // vpbroadcastw 0xa901(%rip),%ymm11 # 3aa06 <_sk_srcover_bgra_8888_sse2_lowp+0xa9e>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -47969,7 +47271,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,128,169,0,0 // vpbroadcastw 0xa980(%rip),%ymm11 # 3b748 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
+ .byte 196,98,125,121,29,200,168,0,0 // vpbroadcastw 0xa8c8(%rip),%ymm11 # 3aa08 <_sk_srcover_bgra_8888_sse2_lowp+0xaa0>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -47978,7 +47280,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,80,169,0,0 // vpbroadcastw 0xa950(%rip),%ymm12 # 3b74a <_sk_srcover_bgra_8888_sse2_lowp+0xb5a>
+ .byte 196,98,125,121,37,152,168,0,0 // vpbroadcastw 0xa898(%rip),%ymm12 # 3aa0a <_sk_srcover_bgra_8888_sse2_lowp+0xaa2>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -48051,7 +47353,7 @@ _sk_clamp_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48068,7 +47370,7 @@ _sk_repeat_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48078,10 +47380,10 @@ HIDDEN _sk_mirror_x_1_hsw_lowp
.globl _sk_mirror_x_1_hsw_lowp
FUNCTION(_sk_mirror_x_1_hsw_lowp)
_sk_mirror_x_1_hsw_lowp:
- .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
@@ -48092,13 +47394,13 @@ _sk_mirror_x_1_hsw_lowp:
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,209,160,0,0 // vbroadcastss 0xa0d1(%rip),%ymm8 # 3b034 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
+ .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,193,124,84,192 // vandps %ymm8,%ymm0,%ymm0
.byte 196,193,116,84,200 // vandps %ymm8,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48118,7 +47420,7 @@ _sk_gradient_hsw_lowp:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,60 // jb 31000 <_sk_gradient_hsw_lowp+0x6d>
+ .byte 114,60 // jb 30378 <_sk_gradient_hsw_lowp+0x6d>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
@@ -48130,9 +47432,9 @@ _sk_gradient_hsw_lowp:
.byte 197,213,250,234 // vpsubd %ymm2,%ymm5,%ymm5
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,224 // jne 30fd6 <_sk_gradient_hsw_lowp+0x43>
+ .byte 117,224 // jne 3034e <_sk_gradient_hsw_lowp+0x43>
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 310b4 <_sk_gradient_hsw_lowp+0x121>
+ .byte 15,135,180,0,0,0 // ja 3042c <_sk_gradient_hsw_lowp+0x121>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -48169,7 +47471,7 @@ _sk_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,85,22,255 // vpermps %ymm15,%ymm5,%ymm7
- .byte 233,34,1,0,0 // jmpq 311d6 <_sk_gradient_hsw_lowp+0x243>
+ .byte 233,34,1,0,0 // jmpq 3054e <_sk_gradient_hsw_lowp+0x243>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
@@ -48238,8 +47540,8 @@ _sk_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -48249,7 +47551,7 @@ _sk_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,20,165,0,0 // vmovdqa 0xa514(%rip),%ymm4 # 3b760 <_sk_srcover_bgra_8888_sse2_lowp+0xb70>
+ .byte 197,253,111,37,92,164,0,0 // vmovdqa 0xa45c(%rip),%ymm4 # 3aa20 <_sk_srcover_bgra_8888_sse2_lowp+0xab8>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -48298,9 +47600,9 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 76,139,0 // mov (%rax),%r8
.byte 77,137,193 // mov %r8,%r9
.byte 73,255,201 // dec %r9
- .byte 120,7 // js 31331 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
+ .byte 120,7 // js 306a9 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
.byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2
- .byte 235,22 // jmp 31347 <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
+ .byte 235,22 // jmp 306bf <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
.byte 77,137,202 // mov %r9,%r10
.byte 73,209,234 // shr %r10
.byte 65,131,225,1 // and $0x1,%r9d
@@ -48313,7 +47615,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,126,91,242 // vcvttps2dq %ymm2,%ymm14
.byte 197,254,91,251 // vcvttps2dq %ymm3,%ymm7
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 3141a <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
+ .byte 15,135,180,0,0,0 // ja 30792 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -48350,7 +47652,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,13,22,255 // vpermps %ymm15,%ymm14,%ymm7
- .byte 233,33,1,0,0 // jmpq 3153b <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
+ .byte 233,33,1,0,0 // jmpq 308b3 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -48419,8 +47721,8 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -48430,7 +47732,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,207,161,0,0 // vmovdqa 0xa1cf(%rip),%ymm4 # 3b780 <_sk_srcover_bgra_8888_sse2_lowp+0xb90>
+ .byte 197,253,111,37,23,161,0,0 // vmovdqa 0xa117(%rip),%ymm4 # 3aa40 <_sk_srcover_bgra_8888_sse2_lowp+0xad8>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -48476,12 +47778,12 @@ _sk_evenly_spaced_2_stop_gradient_hsw_lowp:
.byte 197,124,40,194 // vmovaps %ymm2,%ymm8
.byte 196,98,125,168,195 // vfmadd213ps %ymm3,%ymm0,%ymm8
.byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
.byte 196,66,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 197,125,111,21,248,160,0,0 // vmovdqa 0xa0f8(%rip),%ymm10 # 3b7a0 <_sk_srcover_bgra_8888_sse2_lowp+0xbb0>
+ .byte 197,125,111,21,64,160,0,0 // vmovdqa 0xa040(%rip),%ymm10 # 3aa60 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8>
.byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
.byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
.byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
@@ -48545,7 +47847,7 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 197,252,40,227 // vmovaps %ymm3,%ymm4
.byte 197,252,40,217 // vmovaps %ymm1,%ymm3
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,98,125,24,5,98,152,0,0 // vbroadcastss 0x9862(%rip),%ymm8 # 3b034 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
+ .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,65,116,84,200 // vandps %ymm8,%ymm1,%ymm9
.byte 196,65,100,84,208 // vandps %ymm8,%ymm3,%ymm10
.byte 196,65,108,84,216 // vandps %ymm8,%ymm2,%ymm11
@@ -48559,20 +47861,20 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,45,74,192,192 // vblendvps %ymm12,%ymm8,%ymm10,%ymm8
.byte 196,65,4,94,192 // vdivps %ymm8,%ymm15,%ymm8
.byte 196,65,60,89,208 // vmulps %ymm8,%ymm8,%ymm10
- .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 3afcc <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,124,40,251 // vmovaps %ymm11,%ymm15
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3afd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,193,52,89,195 // vmulps %ymm11,%ymm9,%ymm0
- .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 3afdc <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 197,52,92,208 // vsubps %ymm0,%ymm9,%ymm10
.byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
.byte 196,65,60,89,199 // vmulps %ymm15,%ymm8,%ymm8
@@ -48580,14 +47882,14 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,193,116,194,201,1 // vcmpltps %ymm9,%ymm1,%ymm1
- .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,44,92,216 // vsubps %ymm0,%ymm10,%ymm11
.byte 196,195,125,74,195,16 // vblendvps %ymm1,%ymm11,%ymm0,%ymm0
.byte 196,193,100,194,201,1 // vcmpltps %ymm9,%ymm3,%ymm1
.byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3
.byte 196,227,61,74,203,16 // vblendvps %ymm1,%ymm3,%ymm8,%ymm1
.byte 196,193,108,194,217,1 // vcmpltps %ymm9,%ymm2,%ymm3
- .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,208 // vsubps %ymm0,%ymm8,%ymm10
.byte 196,195,125,74,194,48 // vblendvps %ymm3,%ymm10,%ymm0,%ymm0
.byte 196,193,92,194,217,1 // vcmpltps %ymm9,%ymm4,%ymm3
@@ -48633,9 +47935,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 3198f <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 30d07 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 31c54 <_sk_srcover_rgba_8888_hsw_lowp+0x321>
+ .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 30fcc <_sk_srcover_rgba_8888_hsw_lowp+0x321>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48645,10 +47947,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 31aa5 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 31aa5 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -48657,7 +47959,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 31aa5 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48673,7 +47975,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 31aa5 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48683,7 +47985,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 31aa5 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48703,9 +48005,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,242,156,0,0 // vmovdqa 0x9cf2(%rip),%ymm8 # 3b7c0 <_sk_srcover_bgra_8888_sse2_lowp+0xbd0>
+ .byte 197,125,111,5,58,156,0,0 // vmovdqa 0x9c3a(%rip),%ymm8 # 3aa80 <_sk_srcover_bgra_8888_sse2_lowp+0xb18>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,4,157,0,0 // vpbroadcastw 0x9d04(%rip),%ymm9 # 3b7e0 <_sk_srcover_bgra_8888_sse2_lowp+0xbf0>
+ .byte 196,98,125,121,13,76,156,0,0 // vpbroadcastw 0x9c4c(%rip),%ymm9 # 3aaa0 <_sk_srcover_bgra_8888_sse2_lowp+0xb38>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -48744,19 +48046,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 31bb6 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 31c90 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
+ .byte 119,26 // ja 30f2e <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 31008 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 31c4d <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 31c4d <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 31c4d <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -48764,12 +48066,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 31c4d <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 31c4d <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -48808,10 +48110,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255,64,254 // incl -0x2(%rax)
.byte 255 // (bad)
- .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b031c87 <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
+ .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b030fff <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d031c8f <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
+ .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d031007 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -48829,7 +48131,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 31cb5 <_sk_srcover_rgba_8888_hsw_lowp+0x382>
+ .byte 120,255 // js 3102d <_sk_srcover_rgba_8888_hsw_lowp+0x382>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -48856,9 +48158,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 31d28 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 310a0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 31fec <_sk_srcover_bgra_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 31364 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48868,10 +48170,10 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 31e3e <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 31e3e <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -48880,7 +48182,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 31e3e <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48896,7 +48198,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 31e3e <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48906,7 +48208,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 31e3e <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48926,9 +48228,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,153,153,0,0 // vmovdqa 0x9999(%rip),%ymm8 # 3b800 <_sk_srcover_bgra_8888_sse2_lowp+0xc10>
+ .byte 197,125,111,5,225,152,0,0 // vmovdqa 0x98e1(%rip),%ymm8 # 3aac0 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
- .byte 196,98,125,121,13,171,153,0,0 // vpbroadcastw 0x99ab(%rip),%ymm9 # 3b820 <_sk_srcover_bgra_8888_sse2_lowp+0xc30>
+ .byte 196,98,125,121,13,243,152,0,0 // vpbroadcastw 0x98f3(%rip),%ymm9 # 3aae0 <_sk_srcover_bgra_8888_sse2_lowp+0xb78>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -48967,19 +48269,19 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 31f4f <_sk_srcover_bgra_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 32028 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 312c7 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 313a0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 31fe6 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 31fe6 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 31fe6 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -48987,12 +48289,12 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 31fe6 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 31fe6 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -49040,7 +48342,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f03202c <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f0313a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -49058,7 +48360,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 3204d <_sk_srcover_bgra_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 313c5 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49091,13 +48393,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 3211a <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 31492 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 320e8 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 31460 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -49116,10 +48418,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 320b1 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 31429 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 32111 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 31489 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -49133,7 +48435,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 320a3 <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 3141b <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -49164,7 +48466,7 @@ _sk_seed_shader_sse41_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,40,151,0,0 // addps 0x9728(%rip),%xmm2 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,21,112,150,0,0 // addps 0x9670(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -49341,7 +48643,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,109,148,0,0 // movaps 0x946d(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,181,147,0,0 // movaps 0x93b5(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -49352,7 +48654,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,89,148,0,0 // movaps 0x9459(%rip),%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,5,161,147,0,0 // movaps 0x93a1(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -49363,10 +48665,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -49413,7 +48715,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,165,147,0,0 // movdqa 0x93a5(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,237,146,0,0 // movdqa 0x92ed(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -49430,7 +48732,7 @@ HIDDEN _sk_premul_dst_sse41_lowp
FUNCTION(_sk_premul_dst_sse41_lowp)
_sk_premul_dst_sse41_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,110,147,0,0 // movdqa 0x936e(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,182,146,0,0 // movdqa 0x92b6(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -49478,7 +48780,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,12,147,0,0 // movdqa 0x930c(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,84,146,0,0 // movdqa 0x9254(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49510,7 +48812,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,176,146,0,0 // movdqa 0x92b0(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,111,29,248,145,0,0 // movdqa 0x91f8(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -49542,7 +48844,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,48,146,0,0 // movdqa 0x9230(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,120,145,0,0 // movdqa 0x9178(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -49571,7 +48873,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,187,145,0,0 // movdqa 0x91bb(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,3,145,0,0 // movdqa 0x9103(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -49592,7 +48894,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,114,145,0,0 // movdqa 0x9172(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,186,144,0,0 // movdqa 0x90ba(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -49613,7 +48915,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,41,145,0,0 // movdqa 0x9129(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,113,144,0,0 // movdqa 0x9071(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -49636,7 +48938,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,210,144,0,0 // movdqa 0x90d2(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,26,144,0,0 // movdqa 0x901a(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -49661,7 +48963,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,120,144,0,0 // movdqa 0x9078(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,192,143,0,0 // movdqa 0x8fc0(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49690,7 +48992,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,254,143,0,0 // movdqa 0x8ffe(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,70,143,0,0 // movdqa 0x8f46(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -49717,7 +49019,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,151,143,0,0 // movdqa 0x8f97(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,223,142,0,0 // movdqa 0x8edf(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -49736,7 +49038,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,86,143,0,0 // movdqa 0x8f56(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,158,142,0,0 // movdqa 0x8e9e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49779,7 +49081,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,155,142,0,0 // movdqa 0x8e9b(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,227,141,0,0 // movdqa 0x8de3(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -49799,7 +49101,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,85,142,0,0 // movdqa 0x8e55(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,21,157,141,0,0 // movdqa 0x8d9d(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49831,7 +49133,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,211,141,0,0 // movdqa 0x8dd3(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,27,141,0,0 // movdqa 0x8d1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -49874,7 +49176,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,26,141,0,0 // movdqa 0x8d1a(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,98,140,0,0 // movdqa 0x8c62(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49918,7 +49220,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,93,140,0,0 // movdqa 0x8c5d(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,165,139,0,0 // movdqa 0x8ba5(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49962,10 +49264,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,160,139,0,0 // movdqa 0x8ba0(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,232,138,0,0 // movdqa 0x8ae8(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,237,146,0,0 // movdqa 0x92ed(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13a0>
+ .byte 102,68,15,111,21,53,146,0,0 // movdqa 0x9235(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -50007,10 +49309,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,220,138,0,0 // movdqa 0x8adc(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,36,138,0,0 // movdqa 0x8a24(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,41,146,0,0 // movdqa 0x9229(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13a0>
+ .byte 102,68,15,111,21,113,145,0,0 // movdqa 0x9171(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -50046,14 +49348,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,55,138,0,0 // movdqa 0x8a37(%rip),%xmm11 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,29,127,137,0,0 // movdqa 0x897f(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,128,145,0,0 // movdqa 0x9180(%rip),%xmm9 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,13,200,144,0,0 // movdqa 0x90c8(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -50100,7 +49402,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,40,137,0,0 // movdqa 0x8928(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,112,136,0,0 // movdqa 0x8870(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -50139,7 +49441,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,139,136,0,0 // movdqa 0x888b(%rip),%xmm11 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,29,211,135,0,0 // movdqa 0x87d3(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -50151,7 +49453,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,188,143,0,0 // movdqa 0x8fbc(%rip),%xmm9 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,13,4,143,0,0 // movdqa 0x8f04(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -50197,7 +49499,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,110,135,0,0 // movdqa 0x876e(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,182,134,0,0 // movdqa 0x86b6(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -50240,49 +49542,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 33184 <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 324fc <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3325c <_sk_load_8888_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 325d4 <_sk_load_8888_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 331dd <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 331dd <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 331dd <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,203,141,0,0 // movdqa 0x8dcb(%rip),%xmm0 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,15,111,5,19,141,0,0 // movdqa 0x8d13(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,43,134,0,0 // movdqa 0x862b(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,115,133,0,0 // movdqa 0x8573(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,164,141,0,0 // movdqa 0x8da4(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,21,236,140,0,0 // movdqa 0x8cec(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,145,141,0,0 // movdqa 0x8d91(%rip),%xmm10 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,21,217,140,0,0 // movdqa 0x8cd9(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -50298,7 +49600,7 @@ _sk_load_8888_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 33269 <_sk_load_8888_sse41_lowp+0x129>
+ .byte 123,255 // jnp 325e1 <_sk_load_8888_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50320,49 +49622,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 332bc <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 32634 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 33394 <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3270c <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 33315 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 33315 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 33315 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,147,140,0,0 // movdqa 0x8c93(%rip),%xmm4 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,15,111,37,219,139,0,0 // movdqa 0x8bdb(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,243,132,0,0 // movdqa 0x84f3(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,59,132,0,0 // movdqa 0x843b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,108,140,0,0 // movdqa 0x8c6c(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,21,180,139,0,0 // movdqa 0x8bb4(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,89,140,0,0 // movdqa 0x8c59(%rip),%xmm10 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,21,161,139,0,0 // movdqa 0x8ba1(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -50378,7 +49680,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 333a1 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 32719 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50415,20 +49717,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 33436 <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 327ae <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 3347c <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 327f4 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 33475 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 33475 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 33475 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -50472,49 +49774,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 334dc <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 32854 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 335b4 <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3292c <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 33535 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 33535 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 33535 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,115,138,0,0 // movdqa 0x8a73(%rip),%xmm2 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,15,111,21,187,137,0,0 // movdqa 0x89bb(%rip),%xmm2 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,211,130,0,0 // movdqa 0x82d3(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,27,130,0,0 // movdqa 0x821b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,76,138,0,0 // movdqa 0x8a4c(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,21,148,137,0,0 // movdqa 0x8994(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,57,138,0,0 // movdqa 0x8a39(%rip),%xmm10 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,21,129,137,0,0 // movdqa 0x8981(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -50530,7 +49832,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 335c1 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 32939 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50552,49 +49854,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 33614 <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 3298c <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 336ec <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32a64 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 3366d <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 3366d <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 3366d <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,59,137,0,0 // movdqa 0x893b(%rip),%xmm6 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,15,111,53,131,136,0,0 // movdqa 0x8883(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,155,129,0,0 // movdqa 0x819b(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,227,128,0,0 // movdqa 0x80e3(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,20,137,0,0 // movdqa 0x8914(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,21,92,136,0,0 // movdqa 0x885c(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,1,137,0,0 // movdqa 0x8901(%rip),%xmm10 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,21,73,136,0,0 // movdqa 0x8849(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -50610,7 +49912,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 336f9 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 32a71 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50647,20 +49949,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 3378e <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 32b06 <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 337d4 <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32b4c <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 337cd <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 337cd <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 337cd <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -50763,17 +50065,17 @@ _sk_gather_8888_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,4,127,0,0 // movdqa 0x7f04(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,76,126,0,0 // movdqa 0x7e4c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,125,134,0,0 // movdqa 0x867d(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,21,197,133,0,0 // movdqa 0x85c5(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,106,134,0,0 // movdqa 0x866a(%rip),%xmm10 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,21,178,133,0,0 // movdqa 0x85b2(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -50858,17 +50160,17 @@ _sk_gather_bgra_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,108,125,0,0 // movdqa 0x7d6c(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,180,124,0,0 // movdqa 0x7cb4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,229,132,0,0 // movdqa 0x84e5(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,21,45,132,0,0 // movdqa 0x842d(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,210,132,0,0 // movdqa 0x84d2(%rip),%xmm10 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,21,26,132,0,0 // movdqa 0x841a(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -50894,23 +50196,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33b5c <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 32ed4 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 33c0c <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32f84 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 33ba6 <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 33ba6 <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 33ba6 <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -50919,11 +50221,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,41,132,0,0 // pand 0x8429(%rip),%xmm3 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,29,113,131,0,0 // pand 0x8371(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,40,132,0,0 // pand 0x8428(%rip),%xmm1 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,15,111,21,48,132,0,0 // movdqa 0x8430(%rip),%xmm2 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,15,219,13,112,131,0,0 // pand 0x8370(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,120,131,0,0 // movdqa 0x8378(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -50936,7 +50238,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,38,124,0,0 // movaps 0x7c26(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,110,123,0,0 // movaps 0x7b6e(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -50947,7 +50249,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 33c21 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 32f99 <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50966,23 +50268,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33c64 <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 32fdc <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 33d14 <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 3308c <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 33cae <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 33cae <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 33cae <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -50991,11 +50293,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,33,131,0,0 // pand 0x8321(%rip),%xmm7 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,61,105,130,0,0 // pand 0x8269(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,32,131,0,0 // pand 0x8320(%rip),%xmm5 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,15,111,53,40,131,0,0 // movdqa 0x8328(%rip),%xmm6 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,15,219,45,104,130,0,0 // pand 0x8268(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,53,112,130,0,0 // movdqa 0x8270(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -51008,7 +50310,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,30,123,0,0 // movaps 0x7b1e(%rip),%xmm7 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,61,102,122,0,0 // movaps 0x7a66(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -51019,7 +50321,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 33d29 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 330a1 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -51036,10 +50338,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,188,130,0,0 // pand 0x82bc(%rip),%xmm8 # 3c010 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
+ .byte 102,68,15,219,5,4,130,0,0 // pand 0x8204(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,184,130,0,0 // pand 0x82b8(%rip),%xmm9 # 3c020 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,68,15,219,13,0,130,0,0 // pand 0x8200(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -51048,19 +50350,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 33da4 <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 3311c <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 33de4 <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 3315c <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 33dde <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 33dde <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 33dde <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -51080,7 +50382,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 33df5 <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 3316d <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -51157,11 +50459,11 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,196,192,7 // pinsrw $0x7,%eax,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,198,128,0,0 // pand 0x80c6(%rip),%xmm3 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,29,14,128,0,0 // pand 0x800e(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,197,128,0,0 // pand 0x80c5(%rip),%xmm1 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,15,111,21,205,128,0,0 // movdqa 0x80cd(%rip),%xmm2 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,15,219,13,13,128,0,0 // pand 0x800d(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,21,128,0,0 // movdqa 0x8015(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -51174,7 +50476,7 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,195,120,0,0 // movaps 0x78c3(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,11,120,0,0 // movaps 0x780b(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -51195,23 +50497,23 @@ _sk_load_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 33fb4 <_sk_load_4444_sse41_lowp+0x3d>
+ .byte 119,35 // ja 3332c <_sk_load_4444_sse41_lowp+0x3d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 34070 <_sk_load_4444_sse41_lowp+0xf9>
+ .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 333e8 <_sk_load_4444_sse41_lowp+0xf9>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 34000 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,76 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 34000 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,68 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,192,252 // pblendw $0xfc,%xmm0,%xmm8
- .byte 235,41 // jmp 34000 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,41 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51222,7 +50524,7 @@ _sk_load_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,20,128,0,0 // movdqa 0x8014(%rip),%xmm0 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
+ .byte 102,15,111,5,92,127,0,0 // movdqa 0x7f5c(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -51270,23 +50572,23 @@ _sk_load_4444_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 340c9 <_sk_load_4444_dst_sse41_lowp+0x3d>
+ .byte 119,35 // ja 33441 <_sk_load_4444_dst_sse41_lowp+0x3d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 34184 <_sk_load_4444_dst_sse41_lowp+0xf8>
+ .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 334fc <_sk_load_4444_dst_sse41_lowp+0xf8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 34115 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,76 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 34115 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,68 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,196,252 // pblendw $0xfc,%xmm4,%xmm8
- .byte 235,41 // jmp 34115 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,41 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -51297,7 +50599,7 @@ _sk_load_4444_dst_sse41_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,255,126,0,0 // movdqa 0x7eff(%rip),%xmm4 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
+ .byte 102,15,111,37,71,126,0,0 // movdqa 0x7e47(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -51342,12 +50644,12 @@ _sk_store_4444_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,124,126,0,0 // pand 0x7e7c(%rip),%xmm8 # 3c040 <_sk_srcover_bgra_8888_sse2_lowp+0x1450>
+ .byte 102,68,15,219,5,196,125,0,0 // pand 0x7dc4(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,120,126,0,0 // pand 0x7e78(%rip),%xmm9 # 3c050 <_sk_srcover_bgra_8888_sse2_lowp+0x1460>
+ .byte 102,68,15,219,13,192,125,0,0 // pand 0x7dc0(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,122,126,0,0 // movdqa 0x7e7a(%rip),%xmm10 # 3c060 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
+ .byte 102,68,15,111,21,194,125,0,0 // movdqa 0x7dc2(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -51357,19 +50659,19 @@ _sk_store_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 34227 <_sk_store_4444_sse41_lowp+0x87>
+ .byte 119,29 // ja 3359f <_sk_store_4444_sse41_lowp+0x87>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 34268 <_sk_store_4444_sse41_lowp+0xc8>
+ .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 335e0 <_sk_store_4444_sse41_lowp+0xc8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 34261 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,58 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 34261 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,50 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 34261 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,33 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -51469,7 +50771,7 @@ _sk_gather_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,128,124,0,0 // movdqa 0x7c80(%rip),%xmm0 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
+ .byte 102,15,111,5,200,123,0,0 // movdqa 0x7bc8(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -51507,18 +50809,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 34442 <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 337ba <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 344c0 <_sk_load_a8_sse41_lowp+0xb7>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 33838 <_sk_load_a8_sse41_lowp+0xb7>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 344a6 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 344a6 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -51526,7 +50828,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 344a6 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -51537,14 +50839,14 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,130,115,0,0 // pand 0x7382(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,29,202,114,0,0 // pand 0x72ca(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 344c1 <_sk_load_a8_sse41_lowp+0xb8>
+ .byte 119,255 // ja 33839 <_sk_load_a8_sse41_lowp+0xb8>
.byte 255 // (bad)
.byte 255,154,255,255,255,139 // lcall *-0x74000001(%rdx)
.byte 255 // (bad)
@@ -51573,18 +50875,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 34515 <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 3388d <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 34590 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 33908 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 34579 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 34579 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -51592,7 +50894,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 34579 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -51603,13 +50905,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,175,114,0,0 // pand 0x72af(%rip),%xmm7 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,61,247,113,0,0 // pand 0x71f7(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 34591 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 33909 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -51640,28 +50942,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 345e0 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 33958 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 34650 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 339c8 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 34649 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,145,121,0,0 // pshufb 0x7991(%rip),%xmm8 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x1390>
+ .byte 102,68,15,56,0,5,217,120,0,0 // pshufb 0x78d9(%rip),%xmm8 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 34649 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,49,114,0,0 // pshufb 0x7231(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 102,68,15,56,0,5,121,113,0,0 // pshufb 0x7179(%rip),%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 34649 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,13,114,0,0 // pshufb 0x720d(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xc60>
+ .byte 102,68,15,56,0,5,85,113,0,0 // pshufb 0x7155(%rip),%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -51774,18 +51076,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 347d2 <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 33b4a <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 34854 <_sk_load_g8_sse41_lowp+0xbb>
+ .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 33bcc <_sk_load_g8_sse41_lowp+0xbb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 34836 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 34836 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -51793,7 +51095,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 34836 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -51804,14 +51106,14 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,242,111,0,0 // pand 0x6ff2(%rip),%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,5,58,111,0,0 // pand 0x6f3a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,233,111,0,0 // movaps 0x6fe9(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,49,111,0,0 // movaps 0x6f31(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 115,255 // jae 34855 <_sk_load_g8_sse41_lowp+0xbc>
+ .byte 115,255 // jae 33bcd <_sk_load_g8_sse41_lowp+0xbc>
.byte 255 // (bad)
.byte 255,150,255,255,255,135 // callq *-0x78000001(%rsi)
.byte 255 // (bad)
@@ -51840,18 +51142,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 348a9 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 33c21 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 34928 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 33ca0 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 3490d <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 3490d <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -51859,7 +51161,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 3490d <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -51870,13 +51172,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,27,111,0,0 // pand 0x6f1b(%rip),%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,37,99,110,0,0 // pand 0x6e63(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,18,111,0,0 // movaps 0x6f12(%rip),%xmm7 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,61,90,110,0,0 // movaps 0x6e5a(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 34929 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 33ca1 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -51898,10 +51200,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,32,119,0,0 // pmullw 0x7720(%rip),%xmm0 # 3c070 <_sk_srcover_bgra_8888_sse2_lowp+0x1480>
- .byte 102,15,213,13,40,119,0,0 // pmullw 0x7728(%rip),%xmm1 # 3c080 <_sk_srcover_bgra_8888_sse2_lowp+0x1490>
+ .byte 102,15,213,5,104,118,0,0 // pmullw 0x7668(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
+ .byte 102,15,213,13,112,118,0,0 // pmullw 0x7670(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,44,119,0,0 // pmullw 0x772c(%rip),%xmm3 # 3c090 <_sk_srcover_bgra_8888_sse2_lowp+0x14a0>
+ .byte 102,15,213,29,116,118,0,0 // pmullw 0x7674(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51977,7 +51279,7 @@ _sk_gather_g8_sse41_lowp:
.byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,149,109,0,0 // movaps 0x6d95(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,221,108,0,0 // movaps 0x6cdd(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -51993,14 +51295,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,70,109,0,0 // movdqa 0x6d46(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,142,108,0,0 // movdqa 0x6c8e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -52021,13 +51323,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,211,108,0,0 // movdqa 0x6cd3(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,27,108,0,0 // movdqa 0x6c1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -52067,18 +51369,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 34c14 <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 33f8c <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 34cdc <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 34054 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 34c83 <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 34c83 <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -52086,7 +51388,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 34c83 <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -52097,9 +51399,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,164,107,0,0 // pand 0x6ba4(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,219,5,236,106,0,0 // pand 0x6aec(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,150,107,0,0 // movdqa 0x6b96(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,222,106,0,0 // movdqa 0x6ade(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -52124,7 +51426,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 34cf1 <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 34069 <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -52142,18 +51444,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 34d33 <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 340ab <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 34e3c <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 341b4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 34da2 <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 34da2 <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -52161,7 +51463,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 34da2 <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -52172,8 +51474,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,133,106,0,0 // pand 0x6a85(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
- .byte 102,68,15,111,21,124,106,0,0 // movdqa 0x6a7c(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,219,5,205,105,0,0 // pand 0x69cd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,196,105,0,0 // movdqa 0x69c4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -52203,7 +51505,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 34e3c <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 341b4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -52237,23 +51539,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 34e9a <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 34212 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 34ff4 <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 3436c <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 34ee6 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 34ee6 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 34ee6 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -52262,11 +51564,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,232,112,0,0 // pand 0x70e8(%rip),%xmm0 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,5,48,112,0,0 // pand 0x7030(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,228,112,0,0 // pand 0x70e4(%rip),%xmm10 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,68,15,111,29,235,112,0,0 // movdqa 0x70eb(%rip),%xmm11 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,68,15,219,21,44,112,0,0 // pand 0x702c(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,29,51,112,0,0 // movdqa 0x7033(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -52278,7 +51580,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,73,112,0,0 // movdqa 0x7049(%rip),%xmm0 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,15,111,5,145,111,0,0 // movdqa 0x6f91(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -52291,7 +51593,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,145,104,0,0 // movdqa 0x6891(%rip),%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,111,5,217,103,0,0 // movdqa 0x67d9(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -52345,23 +51647,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 35052 <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 343ca <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 351f8 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 34570 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 3509e <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 3509e <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 3509e <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -52370,11 +51672,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,48,111,0,0 // pand 0x6f30(%rip),%xmm0 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,5,120,110,0,0 // pand 0x6e78(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,44,111,0,0 // pand 0x6f2c(%rip),%xmm10 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,68,15,111,29,51,111,0,0 // movdqa 0x6f33(%rip),%xmm11 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,68,15,219,21,116,110,0,0 // pand 0x6e74(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,29,123,110,0,0 // movdqa 0x6e7b(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -52386,7 +51688,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,145,110,0,0 // movdqa 0x6e91(%rip),%xmm0 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,15,111,5,217,109,0,0 // movdqa 0x6dd9(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -52398,7 +51700,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,221,102,0,0 // movdqa 0x66dd(%rip),%xmm13 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,45,37,102,0,0 // movdqa 0x6625(%rip),%xmm13 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -52455,7 +51757,7 @@ _sk_clamp_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,104,102,0,0 // movaps 0x6668(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,176,101,0,0 // movaps 0x65b0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52472,7 +51774,7 @@ _sk_repeat_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,50,102,0,0 // movaps 0x6632(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,122,101,0,0 // movaps 0x657a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52482,10 +51784,10 @@ HIDDEN _sk_mirror_x_1_sse41_lowp
.globl _sk_mirror_x_1_sse41_lowp
FUNCTION(_sk_mirror_x_1_sse41_lowp)
_sk_mirror_x_1_sse41_lowp:
- .byte 68,15,40,5,126,102,0,0 // movaps 0x667e(%rip),%xmm8 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
+ .byte 68,15,40,5,198,101,0,0 // movaps 0x65c6(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,13,254,101,0,0 // movaps 0x65fe(%rip),%xmm9 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,13,70,101,0,0 // movaps 0x6546(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 68,15,89,200 // mulps %xmm0,%xmm9
@@ -52497,13 +51799,13 @@ _sk_mirror_x_1_sse41_lowp:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,244,106,0,0 // movaps 0x6af4(%rip),%xmm8 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
+ .byte 68,15,40,5,60,106,0,0 // movaps 0x6a3c(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,184,101,0,0 // movaps 0x65b8(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,0,101,0,0 // movaps 0x6500(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52530,7 +51832,7 @@ _sk_gradient_sse41_lowp:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 72,131,249,2 // cmp $0x2,%rcx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,57 // jb 35359 <_sk_gradient_sse41_lowp+0x75>
+ .byte 114,57 // jb 346d1 <_sk_gradient_sse41_lowp+0x75>
.byte 72,139,80,72 // mov 0x48(%rax),%rdx
.byte 72,255,201 // dec %rcx
.byte 72,131,194,4 // add $0x4,%rdx
@@ -52545,7 +51847,7 @@ _sk_gradient_sse41_lowp:
.byte 102,15,250,218 // psubd %xmm2,%xmm3
.byte 72,131,194,4 // add $0x4,%rdx
.byte 72,255,201 // dec %rcx
- .byte 117,219 // jne 35334 <_sk_gradient_sse41_lowp+0x50>
+ .byte 117,219 // jne 346ac <_sk_gradient_sse41_lowp+0x50>
.byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx
.byte 65,137,221 // mov %ebx,%r13d
.byte 72,193,235,32 // shr $0x20,%rbx
@@ -52624,14 +51926,14 @@ _sk_gradient_sse41_lowp:
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,61,59,100,0,0 // movaps 0x643b(%rip),%xmm7 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 15,40,61,131,99,0,0 // movaps 0x6383(%rip),%xmm7 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 68,15,89,239 // mulps %xmm7,%xmm13
.byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,40,61,60,99,0,0 // movaps 0x633c(%rip),%xmm15 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,61,132,98,0,0 // movaps 0x6284(%rip),%xmm15 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 65,15,88,223 // addps %xmm15,%xmm3
.byte 243,65,15,91,245 // cvttps2dq %xmm13,%xmm6
- .byte 102,68,15,111,45,86,106,0,0 // movdqa 0x6a56(%rip),%xmm13 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,68,15,111,45,158,105,0,0 // movdqa 0x699e(%rip),%xmm13 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,197 // pshufb %xmm13,%xmm8
@@ -52735,9 +52037,9 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 35732 <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
+ .byte 120,7 // js 34aaa <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 35747 <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
+ .byte 235,21 // jmp 34abf <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -52875,14 +52177,14 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,100,36,176 // movaps -0x50(%rsp),%xmm4
.byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 15,40,5,24,95,0,0 // movaps 0x5f18(%rip),%xmm0 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 15,40,5,96,94,0,0 // movaps 0x5e60(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,40,53,25,94,0,0 // movaps 0x5e19(%rip),%xmm14 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,53,97,93,0,0 // movaps 0x5d61(%rip),%xmm14 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 65,15,88,222 // addps %xmm14,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,111,5,53,101,0,0 // movdqa 0x6535(%rip),%xmm0 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,15,111,5,125,100,0,0 // movdqa 0x647d(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 243,69,15,91,192 // cvttps2dq %xmm8,%xmm8
.byte 102,68,15,56,0,192 // pshufb %xmm0,%xmm8
@@ -52892,7 +52194,7 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 68,15,89,203 // mulps %xmm3,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,40,13,200,94,0,0 // movaps 0x5ec8(%rip),%xmm1 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 15,40,13,16,94,0,0 // movaps 0x5e10(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -52961,14 +52263,14 @@ _sk_evenly_spaced_2_stop_gradient_sse41_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,194,93,0,0 // movaps 0x5dc2(%rip),%xmm10 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,21,10,93,0,0 // movaps 0x5d0a(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,37,194,92,0,0 // movaps 0x5cc2(%rip),%xmm12 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,37,10,92,0,0 // movaps 0x5c0a(%rip),%xmm12 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,88,220 // addps %xmm12,%xmm3
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,68,15,111,29,221,99,0,0 // movdqa 0x63dd(%rip),%xmm11 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,68,15,111,29,37,99,0,0 // movdqa 0x6325(%rip),%xmm11 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,195 // pshufb %xmm11,%xmm8
@@ -53041,7 +52343,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 15,40,251 // movaps %xmm3,%xmm7
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,40,37,179,96,0,0 // movaps 0x60b3(%rip),%xmm4 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
+ .byte 15,40,37,251,95,0,0 // movaps 0x5ffb(%rip),%xmm4 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 68,15,40,233 // movaps %xmm1,%xmm13
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -53066,18 +52368,18 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 69,15,94,251 // divps %xmm11,%xmm15
.byte 65,15,40,199 // movaps %xmm15,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,29,179,96,0,0 // movaps 0x60b3(%rip),%xmm11 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1230>
+ .byte 68,15,40,29,251,95,0,0 // movaps 0x5ffb(%rip),%xmm11 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 68,15,40,224 // movaps %xmm0,%xmm12
.byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,37,179,96,0,0 // addps 0x60b3(%rip),%xmm12 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1240>
+ .byte 68,15,88,37,251,95,0,0 // addps 0x5ffb(%rip),%xmm12 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,45,184,96,0,0 // movaps 0x60b8(%rip),%xmm5 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x1250>
+ .byte 15,40,45,0,96,0,0 // movaps 0x6000(%rip),%xmm5 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 68,15,88,229 // addps %xmm5,%xmm12
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,37,185,96,0,0 // movaps 0x60b9(%rip),%xmm4 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x1260>
+ .byte 15,40,37,1,96,0,0 // movaps 0x6001(%rip),%xmm4 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 15,40,21,186,96,0,0 // movaps 0x60ba(%rip),%xmm2 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x1270>
+ .byte 15,40,21,2,96,0,0 // movaps 0x6002(%rip),%xmm2 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,194 // movaps %xmm10,%xmm0
@@ -53086,7 +52388,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,29,98,96,0,0 // addps 0x6062(%rip),%xmm11 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1240>
+ .byte 68,15,88,29,170,95,0,0 // addps 0x5faa(%rip),%xmm11 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 68,15,88,221 // addps %xmm5,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
@@ -53097,7 +52399,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,194,193,1 // cmpltps %xmm9,%xmm8
- .byte 15,40,21,128,90,0,0 // movaps 0x5a80(%rip),%xmm2 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,21,200,89,0,0 // movaps 0x59c8(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,192 // movaps %xmm8,%xmm0
@@ -53108,7 +52410,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0
- .byte 15,40,13,94,90,0,0 // movaps 0x5a5e(%rip),%xmm1 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,40,13,166,89,0,0 // movaps 0x59a6(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
@@ -53162,48 +52464,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 35efe <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 35276 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 360f8 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
+ .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 35470 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 35f57 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 35f57 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 35f57 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,81,96,0,0 // movdqa 0x6051(%rip),%xmm4 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,15,111,37,153,95,0,0 // movdqa 0x5f99(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,177,88,0,0 // movdqa 0x58b1(%rip),%xmm12 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,37,249,87,0,0 // movdqa 0x57f9(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,42,96,0,0 // movdqa 0x602a(%rip),%xmm9 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,13,114,95,0,0 // movdqa 0x5f72(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,23,96,0,0 // movdqa 0x6017(%rip),%xmm9 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,13,95,95,0,0 // movdqa 0x5f5f(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -53245,19 +52547,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 360a1 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 36114 <_sk_srcover_rgba_8888_sse41_lowp+0x261>
+ .byte 119,24 // ja 35419 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 3548c <_sk_srcover_rgba_8888_sse41_lowp+0x261>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 360e0 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 360e0 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 360e0 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -53274,7 +52576,7 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 255,38 // jmpq *(%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a036103 <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
+ .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a03547b <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255,80,254 // callq *-0x2(%rax)
@@ -53313,48 +52615,48 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3617b <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 354f3 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 36378 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 356f0 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 361d4 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 361d4 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 361d4 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,212,93,0,0 // movdqa 0x5dd4(%rip),%xmm6 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
+ .byte 102,15,111,53,28,93,0,0 // movdqa 0x5d1c(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,52,86,0,0 // movdqa 0x5634(%rip),%xmm12 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,37,124,85,0,0 // movdqa 0x557c(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,173,93,0,0 // movdqa 0x5dad(%rip),%xmm9 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
+ .byte 102,68,15,111,13,245,92,0,0 // movdqa 0x5cf5(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,154,93,0,0 // movdqa 0x5d9a(%rip),%xmm9 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
+ .byte 102,68,15,111,13,226,92,0,0 // movdqa 0x5ce2(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,225 // pshufb %xmm9,%xmm4
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -53396,19 +52698,19 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3631e <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 36394 <_sk_srcover_bgra_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 35696 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 3570c <_sk_srcover_bgra_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 3635d <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 3635d <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 3635d <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -53473,13 +52775,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 36466 <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 357de <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 36434 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 357ac <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -53498,10 +52800,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 363fd <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 35775 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 3645d <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 357d5 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -53515,7 +52817,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 363ef <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 35767 <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -53546,7 +52848,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,220,83,0,0 // addps 0x53dc(%rip),%xmm2 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,88,21,36,83,0,0 // addps 0x5324(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -53723,7 +53025,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,33,81,0,0 // movaps 0x5121(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,105,80,0,0 // movaps 0x5069(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -53734,7 +53036,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,13,81,0,0 // movaps 0x510d(%rip),%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,5,85,80,0,0 // movaps 0x5055(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -53745,10 +53047,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -53774,7 +53076,7 @@ HIDDEN _sk_clamp_a_sse2_lowp
.globl _sk_clamp_a_sse2_lowp
FUNCTION(_sk_clamp_a_sse2_lowp)
_sk_clamp_a_sse2_lowp:
- .byte 102,68,15,111,5,243,87,0,0 // movdqa 0x57f3(%rip),%xmm8 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,5,59,87,0,0 // movdqa 0x573b(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
@@ -53803,7 +53105,7 @@ HIDDEN _sk_clamp_a_dst_sse2_lowp
.globl _sk_clamp_a_dst_sse2_lowp
FUNCTION(_sk_clamp_a_dst_sse2_lowp)
_sk_clamp_a_dst_sse2_lowp:
- .byte 102,68,15,111,5,125,87,0,0 // movdqa 0x577d(%rip),%xmm8 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,5,197,86,0,0 // movdqa 0x56c5(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
@@ -53833,7 +53135,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,147,79,0,0 // movdqa 0x4f93(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,219,78,0,0 // movdqa 0x4edb(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -53850,7 +53152,7 @@ HIDDEN _sk_premul_dst_sse2_lowp
FUNCTION(_sk_premul_dst_sse2_lowp)
_sk_premul_dst_sse2_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,92,79,0,0 // movdqa 0x4f5c(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,164,78,0,0 // movdqa 0x4ea4(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -53898,7 +53200,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,250,78,0,0 // movdqa 0x4efa(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,66,78,0,0 // movdqa 0x4e42(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -53930,7 +53232,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,158,78,0,0 // movdqa 0x4e9e(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,111,29,230,77,0,0 // movdqa 0x4de6(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -53962,7 +53264,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,30,78,0,0 // movdqa 0x4e1e(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,102,77,0,0 // movdqa 0x4d66(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -53991,7 +53293,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,169,77,0,0 // movdqa 0x4da9(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,241,76,0,0 // movdqa 0x4cf1(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -54012,7 +53314,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,96,77,0,0 // movdqa 0x4d60(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,168,76,0,0 // movdqa 0x4ca8(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54033,7 +53335,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,23,77,0,0 // movdqa 0x4d17(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,95,76,0,0 // movdqa 0x4c5f(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54056,7 +53358,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,192,76,0,0 // movdqa 0x4cc0(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,8,76,0,0 // movdqa 0x4c08(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -54081,7 +53383,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,102,76,0,0 // movdqa 0x4c66(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,174,75,0,0 // movdqa 0x4bae(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54110,7 +53412,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,236,75,0,0 // movdqa 0x4bec(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,52,75,0,0 // movdqa 0x4b34(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54137,7 +53439,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,133,75,0,0 // movdqa 0x4b85(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,205,74,0,0 // movdqa 0x4acd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -54156,7 +53458,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,68,75,0,0 // movdqa 0x4b44(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,140,74,0,0 // movdqa 0x4a8c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54201,12 +53503,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,240,82,0,0 // movdqa 0x52f0(%rip),%xmm10 # 3c0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x14b0>
+ .byte 102,68,15,111,21,56,82,0,0 // movdqa 0x5238(%rip),%xmm10 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,100,74,0,0 // movdqa 0x4a64(%rip),%xmm11 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,29,172,73,0,0 // movdqa 0x49ac(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -54245,7 +53547,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,196,73,0,0 // movdqa 0x49c4(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,21,12,73,0,0 // movdqa 0x490c(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54277,7 +53579,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,66,73,0,0 // movdqa 0x4942(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,138,72,0,0 // movdqa 0x488a(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -54319,7 +53621,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,253,79,0,0 // movdqa 0x4ffd(%rip),%xmm9 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,13,69,79,0,0 // movdqa 0x4f45(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -54328,7 +53630,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,92,72,0,0 // movdqa 0x485c(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,21,164,71,0,0 // movdqa 0x47a4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54384,7 +53686,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,212,78,0,0 // movdqa 0x4ed4(%rip),%xmm9 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,13,28,78,0,0 // movdqa 0x4e1c(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -54393,7 +53695,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,51,71,0,0 // movdqa 0x4733(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,21,123,70,0,0 // movdqa 0x467b(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54449,7 +53751,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,171,77,0,0 // movdqa 0x4dab(%rip),%xmm9 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,13,243,76,0,0 // movdqa 0x4cf3(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -54458,10 +53760,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,10,70,0,0 // movdqa 0x460a(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,21,82,69,0,0 // movdqa 0x4552(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,87,77,0,0 // movdqa 0x4d57(%rip),%xmm11 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13a0>
+ .byte 102,68,15,111,29,159,76,0,0 // movdqa 0x4c9f(%rip),%xmm11 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -54516,10 +53818,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,7,69,0,0 // movdqa 0x4507(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,79,68,0,0 // movdqa 0x444f(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,84,76,0,0 // movdqa 0x4c54(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13a0>
+ .byte 102,68,15,111,21,156,75,0,0 // movdqa 0x4b9c(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54555,7 +53857,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,99,68,0,0 // movdqa 0x4463(%rip),%xmm2 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,111,21,171,67,0,0 // movdqa 0x43ab(%rip),%xmm2 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -54568,7 +53870,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,143,75,0,0 // movdqa 0x4b8f(%rip),%xmm2 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,15,111,21,215,74,0,0 // movdqa 0x4ad7(%rip),%xmm2 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -54587,7 +53889,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,194,67,0,0 // paddw 0x43c2(%rip),%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,253,5,10,67,0,0 // paddw 0x430a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -54610,7 +53912,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,77,67,0,0 // paddw 0x434d(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,253,13,149,66,0,0 // paddw 0x4295(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -54632,7 +53934,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,221,66,0,0 // movdqa 0x42dd(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,37,66,0,0 // movdqa 0x4225(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -54660,7 +53962,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,110,66,0,0 // movdqa 0x426e(%rip),%xmm6 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,111,53,182,65,0,0 // movdqa 0x41b6(%rip),%xmm6 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -54682,7 +53984,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,114,73,0,0 // movdqa 0x4972(%rip),%xmm1 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,15,111,13,186,72,0,0 // movdqa 0x48ba(%rip),%xmm1 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -54709,7 +54011,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,241,72,0,0 // movdqa 0x48f1(%rip),%xmm7 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,15,111,61,57,72,0,0 // movdqa 0x4839(%rip),%xmm7 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -54769,27 +54071,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 377c5 <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 36b3d <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 378c4 <_sk_load_8888_sse2_lowp+0x143>
+ .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 36c3c <_sk_load_8888_sse2_lowp+0x143>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3782b <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3782b <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 3782b <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -54806,7 +54108,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,219,63,0,0 // movdqa 0x3fdb(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,35,63,0,0 // movdqa 0x3f23(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54863,27 +54165,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 37924 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 36c9c <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37a20 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36d98 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3798a <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3798a <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3798a <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -54900,7 +54202,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,124,62,0,0 // movdqa 0x3e7c(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,196,61,0,0 // movdqa 0x3dc4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -54968,21 +54270,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 37abf <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 36e37 <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37b10 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 36e88 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 37b0a <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 37b0a <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 37b0a <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -55027,27 +54329,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 37b70 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 36ee8 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37c6c <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36fe4 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 37bd6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 37bd6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 37bd6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -55064,7 +54366,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,48,60,0,0 // movdqa 0x3c30(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,120,59,0,0 // movdqa 0x3b78(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -55117,27 +54419,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 37ccc <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 37044 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37dc8 <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37140 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 37d32 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 37d32 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 37d32 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -55154,7 +54456,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,212,58,0,0 // movdqa 0x3ad4(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,28,58,0,0 // movdqa 0x3a1c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -55222,21 +54524,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 37e67 <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 371df <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37eb8 <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37230 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 37eb2 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 37eb2 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 37eb2 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -55350,7 +54652,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,240,55,0,0 // movdqa 0x37f0(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,56,55,0,0 // movdqa 0x3738(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -55460,7 +54762,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,17,54,0,0 // movdqa 0x3611(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,89,53,0,0 // movdqa 0x3559(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -55501,23 +54803,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 382ce <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 37646 <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 38378 <_sk_load_565_sse2_lowp+0xe6>
+ .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 376f0 <_sk_load_565_sse2_lowp+0xe6>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 38310 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 38310 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 38310 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -55525,11 +54827,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,191,60,0,0 // pand 0x3cbf(%rip),%xmm3 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,29,7,60,0,0 // pand 0x3c07(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,190,60,0,0 // pand 0x3cbe(%rip),%xmm1 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,15,111,21,198,60,0,0 // movdqa 0x3cc6(%rip),%xmm2 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,15,219,13,6,60,0,0 // pand 0x3c06(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,14,60,0,0 // movdqa 0x3c0e(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55542,7 +54844,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,188,52,0,0 // movaps 0x34bc(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,4,52,0,0 // movaps 0x3404(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 75,255 // rex.WXB (bad)
@@ -55572,23 +54874,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 383d0 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 37748 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 38478 <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 377f0 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 38412 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 38412 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 38412 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -55596,11 +54898,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,189,59,0,0 // pand 0x3bbd(%rip),%xmm7 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,61,5,59,0,0 // pand 0x3b05(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,188,59,0,0 // pand 0x3bbc(%rip),%xmm5 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,15,111,53,196,59,0,0 // movdqa 0x3bc4(%rip),%xmm6 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,15,219,45,4,59,0,0 // pand 0x3b04(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,53,12,59,0,0 // movdqa 0x3b0c(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -55613,7 +54915,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,186,51,0,0 // movaps 0x33ba(%rip),%xmm7 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,61,2,51,0,0 // movaps 0x3302(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -55637,10 +54939,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,88,59,0,0 // pand 0x3b58(%rip),%xmm8 # 3c010 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
+ .byte 102,68,15,219,5,160,58,0,0 // pand 0x3aa0(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,84,59,0,0 // pand 0x3b54(%rip),%xmm9 # 3c020 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,68,15,219,13,156,58,0,0 // pand 0x3a9c(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -55649,21 +54951,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 3850a <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 37882 <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 38554 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 378cc <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 38550 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 38550 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 38550 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -55782,11 +55084,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,193 // punpcklqdq %xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,1,57,0,0 // pand 0x3901(%rip),%xmm3 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,15,219,29,73,56,0,0 // pand 0x3849(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,0,57,0,0 // pand 0x3900(%rip),%xmm1 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,15,111,21,8,57,0,0 // movdqa 0x3908(%rip),%xmm2 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,15,219,13,72,56,0,0 // pand 0x3848(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,80,56,0,0 // movdqa 0x3850(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55799,7 +55101,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,254,48,0,0 // movaps 0x30fe(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,70,48,0,0 // movaps 0x3046(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -55820,23 +55122,23 @@ _sk_load_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 3877a <_sk_load_4444_sse2_lowp+0x3e>
+ .byte 119,36 // ja 37af2 <_sk_load_4444_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 3882c <_sk_load_4444_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37ba4 <_sk_load_4444_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 387bf <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,69 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 387bf <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,61 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,4,80 // movss (%r8,%rdx,2),%xmm0
.byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 235,35 // jmp 387bf <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,35 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -55846,7 +55148,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,85,56,0,0 // movdqa 0x3855(%rip),%xmm0 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
+ .byte 102,15,111,5,157,55,0,0 // movdqa 0x379d(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -55876,7 +55178,7 @@ _sk_load_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 38841 <_sk_load_4444_sse2_lowp+0x105>
+ .byte 125,255 // jge 37bb9 <_sk_load_4444_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -55895,23 +55197,23 @@ _sk_load_4444_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 38886 <_sk_load_4444_dst_sse2_lowp+0x3e>
+ .byte 119,36 // ja 37bfe <_sk_load_4444_dst_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 38938 <_sk_load_4444_dst_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37cb0 <_sk_load_4444_dst_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 388cb <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,69 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 388cb <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,61 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,36,80 // movss (%r8,%rdx,2),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 235,35 // jmp 388cb <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,35 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -55921,7 +55223,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,73,55,0,0 // movdqa 0x3749(%rip),%xmm4 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
+ .byte 102,15,111,37,145,54,0,0 // movdqa 0x3691(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -55951,7 +55253,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 3894d <_sk_load_4444_dst_sse2_lowp+0x105>
+ .byte 125,255 // jge 37cc5 <_sk_load_4444_dst_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -55968,12 +55270,12 @@ _sk_store_4444_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,200,54,0,0 // pand 0x36c8(%rip),%xmm8 # 3c040 <_sk_srcover_bgra_8888_sse2_lowp+0x1450>
+ .byte 102,68,15,219,5,16,54,0,0 // pand 0x3610(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,196,54,0,0 // pand 0x36c4(%rip),%xmm9 # 3c050 <_sk_srcover_bgra_8888_sse2_lowp+0x1460>
+ .byte 102,68,15,219,13,12,54,0,0 // pand 0x360c(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,198,54,0,0 // movdqa 0x36c6(%rip),%xmm10 # 3c060 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
+ .byte 102,68,15,111,21,14,54,0,0 // movdqa 0x360e(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -55983,21 +55285,21 @@ _sk_store_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 389dd <_sk_store_4444_sse2_lowp+0x89>
+ .byte 119,31 // ja 37d55 <_sk_store_4444_sse2_lowp+0x89>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 38a28 <_sk_store_4444_sse2_lowp+0xd4>
+ .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 37da0 <_sk_store_4444_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 38a23 <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,70 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 38a23 <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,62 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 38a23 <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,42 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -56016,7 +55318,7 @@ _sk_store_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,221 // jmpq ffffffffde038a3c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
+ .byte 233,255,255,255,221 // jmpq ffffffffde037db4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,209 // callq *%rcx
@@ -56113,7 +55415,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,110,52,0,0 // movdqa 0x346e(%rip),%xmm0 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
+ .byte 102,15,111,5,182,51,0,0 // movdqa 0x33b6(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -56151,19 +55453,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38c54 <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 37fcc <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 38ccc <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 38044 <_sk_load_a8_sse2_lowp+0xb1>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 38cb5 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 38cb5 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -56171,7 +55473,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 38cb5 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -56182,14 +55484,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,115,43,0,0 // pand 0x2b73(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,29,187,42,0,0 // pand 0x2abb(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 38ccd <_sk_load_a8_sse2_lowp+0xb2>
+ .byte 125,255 // jge 38045 <_sk_load_a8_sse2_lowp+0xb2>
.byte 255 // (bad)
.byte 255,163,255,255,255,148 // jmpq *-0x6b000001(%rbx)
.byte 255 // (bad)
@@ -56220,19 +55522,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38d21 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 38099 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 38d98 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 38110 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 38d82 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 38d82 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -56240,7 +55542,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 38d82 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -56251,14 +55553,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,166,42,0,0 // pand 0x2aa6(%rip),%xmm7 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,61,238,41,0,0 // pand 0x29ee(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 38d99 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 38111 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -56288,42 +55590,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 38de8 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 38160 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 38e68 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 381e0 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 38e63 <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,63,42,0,0 // movdqa 0x2a3f(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 235,123 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,135,41,0,0 // movdqa 0x2987(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 38e63 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,26,42,0,0 // movdqa 0x2a1a(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,98,41,0,0 // movdqa 0x2962(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 38e63 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,221,41,0,0 // movdqa 0x29dd(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,37,41,0,0 // movdqa 0x2925(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 38e69 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 381e1 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -56448,19 +55750,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 39025 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 3839d <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 390a4 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3841c <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 39086 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 39086 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -56468,7 +55770,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 39086 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -56479,14 +55781,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,162,39,0,0 // pand 0x27a2(%rip),%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,5,234,38,0,0 // pand 0x26ea(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,153,39,0,0 // movaps 0x2799(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,225,38,0,0 // movaps 0x26e1(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 390a5 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 3841d <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -56514,19 +55816,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 390f9 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 38471 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 39178 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 384f0 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 3915a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 3915a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -56534,7 +55836,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 3915a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -56545,14 +55847,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,206,38,0,0 // pand 0x26ce(%rip),%xmm4 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,219,37,22,38,0,0 // pand 0x2616(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,197,38,0,0 // movaps 0x26c5(%rip),%xmm7 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,61,13,38,0,0 // movaps 0x260d(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 39179 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 384f1 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -56573,10 +55875,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,208,46,0,0 // pmullw 0x2ed0(%rip),%xmm0 # 3c070 <_sk_srcover_bgra_8888_sse2_lowp+0x1480>
- .byte 102,15,213,13,216,46,0,0 // pmullw 0x2ed8(%rip),%xmm1 # 3c080 <_sk_srcover_bgra_8888_sse2_lowp+0x1490>
+ .byte 102,15,213,5,24,46,0,0 // pmullw 0x2e18(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
+ .byte 102,15,213,13,32,46,0,0 // pmullw 0x2e20(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,220,46,0,0 // pmullw 0x2edc(%rip),%xmm3 # 3c090 <_sk_srcover_bgra_8888_sse2_lowp+0x14a0>
+ .byte 102,15,213,29,36,46,0,0 // pmullw 0x2e24(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -56669,7 +55971,7 @@ _sk_gather_g8_sse2_lowp:
.byte 102,15,196,197,3 // pinsrw $0x3,%ebp,%xmm0
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,10,37,0,0 // movaps 0x250a(%rip),%xmm3 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 15,40,29,82,36,0,0 // movaps 0x2452(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -56685,14 +55987,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,187,36,0,0 // movdqa 0x24bb(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,3,36,0,0 // movdqa 0x2403(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56713,13 +56015,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,72,36,0,0 // movdqa 0x2448(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,144,35,0,0 // movdqa 0x2390(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56759,19 +56061,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 3949f <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 38817 <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 39564 <_sk_scale_u8_sse2_lowp+0x100>
+ .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 388dc <_sk_scale_u8_sse2_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 3950c <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 3950c <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -56779,7 +56081,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 3950c <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -56790,9 +56092,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,27,35,0,0 // pand 0x231b(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,219,5,99,34,0,0 // pand 0x2263(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,13,35,0,0 // movdqa 0x230d(%rip),%xmm9 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,13,85,34,0,0 // movdqa 0x2255(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56834,19 +56136,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 395bb <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 38933 <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 396c4 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 38a3c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 39628 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 39628 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -56854,7 +56156,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 39628 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -56865,8 +56167,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,255,33,0,0 // pand 0x21ff(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
- .byte 102,68,15,111,21,246,33,0,0 // movdqa 0x21f6(%rip),%xmm10 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,219,5,71,33,0,0 // pand 0x2147(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,62,33,0,0 // movdqa 0x213e(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -56896,9 +56198,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 396c4 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 38a3c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 50396cc <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5038a44 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -56928,23 +56230,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3972b <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 38aa3 <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 398fc <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 38c74 <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 3976e <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 3976e <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 3976e <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -56952,11 +56254,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,94,40,0,0 // pand 0x285e(%rip),%xmm11 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,68,15,219,29,166,39,0,0 // pand 0x27a6(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,90,40,0,0 // pand 0x285a(%rip),%xmm9 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,68,15,111,21,97,40,0,0 // movdqa 0x2861(%rip),%xmm10 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,68,15,219,13,162,39,0,0 // pand 0x27a2(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,21,169,39,0,0 // movdqa 0x27a9(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -56968,7 +56270,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,189,39,0,0 // movdqa 0x27bd(%rip),%xmm12 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,37,5,39,0,0 // movdqa 0x2705(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -57009,7 +56311,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,127,31,0,0 // movdqa 0x1f7f(%rip),%xmm0 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,15,111,5,199,30,0,0 // movdqa 0x1ec7(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -57056,23 +56358,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 39963 <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 38cdb <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 39b7c <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 38ef4 <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 399a6 <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 399a6 <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 399a6 <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -57080,11 +56382,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,38,38,0,0 // pand 0x2626(%rip),%xmm11 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
+ .byte 102,68,15,219,29,110,37,0,0 // pand 0x256e(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,34,38,0,0 // pand 0x2622(%rip),%xmm9 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
- .byte 102,68,15,111,21,41,38,0,0 // movdqa 0x2629(%rip),%xmm10 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 102,68,15,219,13,106,37,0,0 // pand 0x256a(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,21,113,37,0,0 // movdqa 0x2571(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -57096,7 +56398,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,133,37,0,0 // movdqa 0x2585(%rip),%xmm12 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
+ .byte 102,68,15,111,37,205,36,0,0 // movdqa 0x24cd(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -57135,7 +56437,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,81,29,0,0 // movdqa 0x1d51(%rip),%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,5,153,28,0,0 // movdqa 0x1c99(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -57197,7 +56499,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,228,28,0,0 // movaps 0x1ce4(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,5,44,28,0,0 // movaps 0x1c2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -57215,7 +56517,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 69,15,194,208,1 // cmpltps %xmm8,%xmm10
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 68,15,40,37,172,28,0,0 // movaps 0x1cac(%rip),%xmm12 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,37,244,27,0,0 // movaps 0x1bf4(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,237 // xorps %xmm13,%xmm13
@@ -57234,10 +56536,10 @@ HIDDEN _sk_mirror_x_1_sse2_lowp
.globl _sk_mirror_x_1_sse2_lowp
FUNCTION(_sk_mirror_x_1_sse2_lowp)
_sk_mirror_x_1_sse2_lowp:
- .byte 68,15,40,5,212,28,0,0 // movaps 0x1cd4(%rip),%xmm8 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
+ .byte 68,15,40,5,28,28,0,0 // movaps 0x1c1c(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,84,28,0,0 // movaps 0x1c54(%rip),%xmm10 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,21,156,27,0,0 // movaps 0x1b9c(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 68,15,89,208 // mulps %xmm0,%xmm10
@@ -57247,7 +56549,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 69,15,91,233 // cvtdq2ps %xmm9,%xmm13
.byte 69,15,194,213,1 // cmpltps %xmm13,%xmm10
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,40,13,52,28,0,0 // movaps 0x1c34(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,124,27,0,0 // movaps 0x1b7c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,217 // andps %xmm9,%xmm11
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,87,246 // xorps %xmm14,%xmm14
@@ -57259,7 +56561,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,32,33,0,0 // movaps 0x2120(%rip),%xmm8 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
+ .byte 68,15,40,5,104,32,0,0 // movaps 0x2068(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 65,15,95,206 // maxps %xmm14,%xmm1
@@ -57288,7 +56590,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 73,131,248,2 // cmp $0x2,%r8
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,56 // jb 39d18 <_sk_gradient_sse2_lowp+0x6c>
+ .byte 114,56 // jb 39090 <_sk_gradient_sse2_lowp+0x6c>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
@@ -57303,7 +56605,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,220 // psubd %xmm4,%xmm3
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,219 // jne 39cf3 <_sk_gradient_sse2_lowp+0x47>
+ .byte 117,219 // jne 3906b <_sk_gradient_sse2_lowp+0x47>
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
.byte 69,137,200 // mov %r9d,%r8d
@@ -57446,10 +56748,10 @@ _sk_gradient_sse2_lowp:
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 69,15,89,207 // mulps %xmm15,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,53,155,25,0,0 // movaps 0x199b(%rip),%xmm6 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 15,40,53,227,24,0,0 // movaps 0x18e3(%rip),%xmm6 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,222 // mulps %xmm6,%xmm3
.byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 15,40,37,157,24,0,0 // movaps 0x189d(%rip),%xmm4 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,37,229,23,0,0 // movaps 0x17e5(%rip),%xmm4 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,88,204 // addps %xmm4,%xmm9
.byte 15,88,220 // addps %xmm4,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -57545,9 +56847,9 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 3a15c <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
+ .byte 120,7 // js 394d4 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 3a171 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
+ .byte 235,21 // jmp 394e9 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -57702,10 +57004,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,68,36,176 // movaps -0x50(%rsp),%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
.byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,40,13,39,21,0,0 // movaps 0x1527(%rip),%xmm1 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 15,40,13,111,20,0,0 // movaps 0x146f(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 15,40,13,41,20,0,0 // movaps 0x1429(%rip),%xmm1 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,13,113,19,0,0 // movaps 0x1371(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,88,193 // addps %xmm1,%xmm8
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -57722,7 +57024,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,5,203,20,0,0 // movaps 0x14cb(%rip),%xmm0 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 15,40,5,19,20,0,0 // movaps 0x1413(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
@@ -57801,10 +57103,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,144,19,0,0 // movaps 0x1390(%rip),%xmm10 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,21,216,18,0,0 // movaps 0x12d8(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,29,144,18,0,0 // movaps 0x1290(%rip),%xmm11 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 68,15,40,29,216,17,0,0 // movaps 0x11d8(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,88,219 // addps %xmm11,%xmm3
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
@@ -57897,7 +57199,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 68,15,40,37,68,22,0,0 // movaps 0x1644(%rip),%xmm12 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
+ .byte 68,15,40,37,140,21,0,0 // movaps 0x158c(%rip),%xmm12 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,40,217 // movaps %xmm1,%xmm11
@@ -57931,26 +57233,26 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,89,246 // mulps %xmm14,%xmm14
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,39,22,0,0 // movaps 0x1627(%rip),%xmm12 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1230>
+ .byte 68,15,40,37,111,21,0,0 // movaps 0x156f(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,35,22,0,0 // movaps 0x1623(%rip),%xmm15 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1240>
+ .byte 68,15,40,61,107,21,0,0 // movaps 0x156b(%rip),%xmm15 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,27,22,0,0 // movaps 0x161b(%rip),%xmm15 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x1250>
+ .byte 68,15,40,61,99,21,0,0 // movaps 0x1563(%rip),%xmm15 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 15,40,5,20,22,0,0 // movaps 0x1614(%rip),%xmm0 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x1260>
+ .byte 15,40,5,92,21,0,0 // movaps 0x155c(%rip),%xmm0 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 68,15,88,232 // addps %xmm0,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 15,40,5,13,22,0,0 // movaps 0x160d(%rip),%xmm0 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x1270>
+ .byte 15,40,5,85,21,0,0 // movaps 0x1555(%rip),%xmm0 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 65,15,84,194 // andps %xmm10,%xmm0
@@ -57962,7 +57264,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,86,200 // orps %xmm8,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,194,200,1 // cmpltps %xmm8,%xmm1
- .byte 15,40,5,249,15,0,0 // movaps 0xff9(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
+ .byte 15,40,5,65,15,0,0 // movaps 0xf41(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
@@ -57975,7 +57277,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 65,15,86,211 // orps %xmm11,%xmm2
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11
- .byte 68,15,40,13,209,15,0,0 // movaps 0xfd1(%rip),%xmm9 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,40,13,25,15,0,0 // movaps 0xf19(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -58033,26 +57335,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3a98f <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 39d07 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3abb8 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 39f30 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3a9f5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3a9f5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3a9f5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -58069,7 +57371,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,17,14,0,0 // movdqa 0xe11(%rip),%xmm12 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,37,89,13,0,0 // movdqa 0xd59(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -58127,20 +57429,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3ab57 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3abd4 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 39ecf <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 39f4c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -58173,7 +57475,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3abd5 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 39f4d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -58205,26 +57507,26 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3ac3b <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 39fb3 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3a1dc <_sk_srcover_bgra_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3aca1 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3aca1 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3aca1 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -58241,7 +57543,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,101,11,0,0 // movdqa 0xb65(%rip),%xmm12 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
+ .byte 102,68,15,111,37,173,10,0,0 // movdqa 0xaad(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -58299,20 +57601,20 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3ae03 <_sk_srcover_bgra_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3a17b <_sk_srcover_bgra_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3a1f8 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -58345,7 +57647,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3ae81 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3a1f9 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -58378,14 +57680,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3af00 <.literal4+0x64>
+ .byte 224,64 // loopne 3a278 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 3af09 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 3a281 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3af13 <.literal4+0x77>
+ .byte 127,67 // jg 3a28b <.literal4+0x77>
.byte 0,0 // add %al,(%rax)
.byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
.byte 158 // sahf
@@ -58422,7 +57724,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3af2d <.literal4+0x91>
+ .byte 224,7 // loopne 3a2a5 <.literal4+0x91>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -58433,8 +57735,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 3af40 <.literal4+0xa4>
- .byte 119,115 // ja 3afb5 <.literal4+0x119>
+ .byte 127,0 // jg 3a2b8 <.literal4+0xa4>
+ .byte 119,115 // ja 3a32d <.literal4+0x119>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -58457,12 +57759,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3afcb <.literal4+0x12f>
+ .byte 118,63 // jbe 3a343 <.literal4+0x12f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3afda <.literal4+0x13e>
+ .byte 124,66 // jl 3a352 <.literal4+0x13e>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -58472,9 +57774,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 3affd <.literal4+0x161>
+ .byte 112,65 // jo 3a375 <.literal4+0x161>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3b007 <.literal4+0x16b>
+ .byte 127,71 // jg 3a37f <.literal4+0x16b>
.byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
@@ -58495,30 +57797,28 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 3b012 <.literal4+0x176>
+ .byte 114,28 // jb 3a38a <.literal4+0x176>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,0,0,192,63 // mov $0x3fc00000,%edi
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3b047 <_sk_srcover_bgra_8888_sse2_lowp+0x457>
+ .byte 127,63 // jg 3a3bf <_sk_srcover_bgra_8888_sse2_lowp+0x457>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 3b04c <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
+ .byte 120,57 // js 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
.byte 64,32,148,90,62,4,157,30 // and %dl,0x1e9d043e(%rdx,%rbx,2)
.byte 62,0,24 // add %bl,%ds:(%rax)
.byte 161,57,109,165,144,63,252,191,16 // movabs 0x10bffc3f90a56d39,%eax
- .byte 62,0,0 // add %al,%ds:(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
+ .byte 62,0,4,0 // add %al,%ds:(%rax,%rax,1)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3b039 <.literal4+0x19d>
+ .byte 127,0 // jg 3a3ad <.literal4+0x199>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -58570,16 +57870,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b0a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004b8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a428 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004c0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x120004c0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a430 <_sk_srcover_bgra_8888_sse2_lowp+0x120004c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b0b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004c8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a438 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x30004d0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a440 <_sk_srcover_bgra_8888_sse2_lowp+0x30004d8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58622,16 +57922,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b108 <_sk_srcover_bgra_8888_sse2_lowp+0xa000518>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a488 <_sk_srcover_bgra_8888_sse2_lowp+0xa000520>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b110 <_sk_srcover_bgra_8888_sse2_lowp+0x12000520>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a490 <_sk_srcover_bgra_8888_sse2_lowp+0x12000528>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b118 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000528>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a498 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000530>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b120 <_sk_srcover_bgra_8888_sse2_lowp+0x3000530>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000538>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58674,16 +57974,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b168 <_sk_srcover_bgra_8888_sse2_lowp+0xa000578>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000580>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b170 <_sk_srcover_bgra_8888_sse2_lowp+0x12000580>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b178 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000588>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000590>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b180 <_sk_srcover_bgra_8888_sse2_lowp+0x3000590>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a500 <_sk_srcover_bgra_8888_sse2_lowp+0x3000598>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58726,16 +58026,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b1c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005d8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a548 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005e0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x120005e0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a550 <_sk_srcover_bgra_8888_sse2_lowp+0x120005e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b1d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005e8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a558 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005f0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x30005f0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a560 <_sk_srcover_bgra_8888_sse2_lowp+0x30005f8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58778,16 +58078,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b228 <_sk_srcover_bgra_8888_sse2_lowp+0xa000638>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a5a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000640>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b230 <_sk_srcover_bgra_8888_sse2_lowp+0x12000640>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000648>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b238 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000648>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000650>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b240 <_sk_srcover_bgra_8888_sse2_lowp+0x3000650>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000658>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58830,16 +58130,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b288 <_sk_srcover_bgra_8888_sse2_lowp+0xa000698>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a608 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006a0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b290 <_sk_srcover_bgra_8888_sse2_lowp+0x120006a0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a610 <_sk_srcover_bgra_8888_sse2_lowp+0x120006a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b298 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006a8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a618 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006b0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x30006b0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a620 <_sk_srcover_bgra_8888_sse2_lowp+0x30006b8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58882,16 +58182,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b2e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006f8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a668 <_sk_srcover_bgra_8888_sse2_lowp+0xa000700>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000700>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a670 <_sk_srcover_bgra_8888_sse2_lowp+0x12000708>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000708>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a678 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000710>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b300 <_sk_srcover_bgra_8888_sse2_lowp+0x3000710>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a680 <_sk_srcover_bgra_8888_sse2_lowp+0x3000718>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58934,16 +58234,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b348 <_sk_srcover_bgra_8888_sse2_lowp+0xa000758>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a6c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000760>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b350 <_sk_srcover_bgra_8888_sse2_lowp+0x12000760>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000768>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b358 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000768>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a6d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000770>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b360 <_sk_srcover_bgra_8888_sse2_lowp+0x3000770>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000778>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58986,16 +58286,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b3a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007b8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a728 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007c0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x120007c0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a730 <_sk_srcover_bgra_8888_sse2_lowp+0x120007c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007c8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a738 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x30007d0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a740 <_sk_srcover_bgra_8888_sse2_lowp+0x30007d8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59036,261 +58336,162 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b408 <_sk_srcover_bgra_8888_sse2_lowp+0xa000818>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b410 <_sk_srcover_bgra_8888_sse2_lowp+0x12000820>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b418 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000828>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b420 <_sk_srcover_bgra_8888_sse2_lowp+0x3000830>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 254,1 // incb (%rcx)
+ .byte 255,0 // incl (%rax)
+ .byte 254,1 // incb (%rcx)
+ .byte 255,0 // incl (%rax)
+ .byte 0,128,255,0,0,128 // add %al,-0x7fffff01(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,254 // add %bh,%dh
- .byte 1,255 // add %edi,%edi
- .byte 0,254 // add %bh,%dh
- .byte 1,255 // add %edi,%edi
.byte 0,0 // add %al,(%rax)
- .byte 128,255,0 // cmp $0x0,%bh
- .byte 0,128,0,0,0,0 // add %al,0x0(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -59399,7 +58600,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 3b6d3 <.const+0x693>
+ .byte 224,255 // loopne 3a993 <.const+0x5d3>
.byte 248 // clc
.byte 0,63 // add %bh,(%rdi)
.byte 0,31 // add %bl,(%rdi)
@@ -59660,11 +58861,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3b948 <.literal16+0x118>
+ .byte 224,64 // loopne 3ac08 <.literal16+0x118>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3b94c <.literal16+0x11c>
+ .byte 224,64 // loopne 3ac0c <.literal16+0x11c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3b950 <.literal16+0x120>
+ .byte 224,64 // loopne 3ac10 <.literal16+0x120>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -59684,13 +58885,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3b971 <.literal16+0x141>
+ .byte 71,225,61 // rex.RXB loope 3ac31 <.literal16+0x141>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3b975 <.literal16+0x145>
+ .byte 71,225,61 // rex.RXB loope 3ac35 <.literal16+0x145>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3b979 <.literal16+0x149>
+ .byte 71,225,61 // rex.RXB loope 3ac39 <.literal16+0x149>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3b97d <.literal16+0x14d>
+ .byte 71,225,61 // rex.RXB loope 3ac3d <.literal16+0x14d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -59701,10 +58902,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b958 <_sk_srcover_bgra_8888_sse2_lowp+0xa000d68>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03ac18 <_sk_srcover_bgra_8888_sse2_lowp+0xa000cb0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303b960 <_sk_srcover_bgra_8888_sse2_lowp+0x3000d70>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303ac20 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cb8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59719,11 +58920,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3b9bb <.literal16+0x18b>
+ .byte 127,67 // jg 3ac7b <.literal16+0x18b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3b9bf <.literal16+0x18f>
+ .byte 127,67 // jg 3ac7f <.literal16+0x18f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3b9c3 <.literal16+0x193>
+ .byte 127,67 // jg 3ac83 <.literal16+0x193>
.byte 0,0 // add %al,(%rax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
@@ -59879,13 +59080,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3bad9 <.literal16+0x2a9>
+ .byte 224,7 // loopne 3ad99 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3badd <.literal16+0x2ad>
+ .byte 224,7 // loopne 3ad9d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3bae1 <.literal16+0x2b1>
+ .byte 224,7 // loopne 3ada1 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3bae5 <.literal16+0x2b5>
+ .byte 224,7 // loopne 3ada5 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -59939,17 +59140,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 3bb54 <.literal16+0x324>
+ .byte 127,0 // jg 3ae14 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3bb58 <.literal16+0x328>
+ .byte 127,0 // jg 3ae18 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3bb5c <.literal16+0x32c>
+ .byte 127,0 // jg 3ae1c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3bb60 <.literal16+0x330>
- .byte 119,115 // ja 3bbd5 <.literal16+0x3a5>
+ .byte 127,0 // jg 3ae20 <.literal16+0x330>
+ .byte 119,115 // ja 3ae95 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -59960,7 +59161,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 3bb39 <.literal16+0x309>
+ .byte 117,191 // jne 3adf9 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -59972,7 +59173,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a6fb7a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34f8a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a6ee3a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ed2>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -60062,16 +59263,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3bcc3 <.literal16+0x493>
+ .byte 118,63 // jbe 3af83 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3bcc7 <.literal16+0x497>
+ .byte 118,63 // jbe 3af87 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3bccb <.literal16+0x49b>
+ .byte 118,63 // jbe 3af8b <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3bccf <.literal16+0x49f>
+ .byte 118,63 // jbe 3af8f <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -60092,13 +59293,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3bd06 <.literal16+0x4d6>
+ .byte 124,66 // jl 3afc6 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3bd0a <.literal16+0x4da>
+ .byte 124,66 // jl 3afca <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3bd0e <.literal16+0x4de>
+ .byte 124,66 // jl 3afce <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3bd12 <.literal16+0x4e2>
+ .byte 124,66 // jl 3afd2 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -60144,25 +59345,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3bd95 <.literal16+0x565>
+ .byte 112,65 // jo 3b055 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3bd99 <.literal16+0x569>
+ .byte 112,65 // jo 3b059 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3bd9d <.literal16+0x56d>
+ .byte 112,65 // jo 3b05d <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3bda1 <.literal16+0x571>
+ .byte 112,65 // jo 3b061 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3bd73 <.literal16+0x543>
+ .byte 127,0 // jg 3b033 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3bd77 <.literal16+0x547>
+ .byte 127,0 // jg 3b037 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3bd7b <.literal16+0x54b>
+ .byte 127,0 // jg 3b03b <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3bd7f <.literal16+0x54f>
+ .byte 127,0 // jg 3b03f <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -60188,13 +59389,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3bdb8 <.literal16+0x588>
+ .byte 127,255 // jg 3b078 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3bdbc <.literal16+0x58c>
+ .byte 127,255 // jg 3b07c <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3bdc1 <.literal16+0x591>
+ .byte 127,0 // jg 3b081 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -60208,13 +59409,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3be2b <.literal16+0x5fb>
+ .byte 127,71 // jg 3b0eb <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3be2f <.literal16+0x5ff>
+ .byte 127,71 // jg 3b0ef <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3be33 <.literal16+0x603>
+ .byte 127,71 // jg 3b0f3 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3be37 <.literal16+0x607>
+ .byte 127,71 // jg 3b0f7 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -60291,13 +59492,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3bece <.literal16+0x69e>
+ .byte 114,28 // jb 3b18e <.literal16+0x69e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3bed2 <.literal16+0x6a2>
+ .byte 62,114,28 // jb,pt 3b192 <.literal16+0x6a2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3bed6 <.literal16+0x6a6>
+ .byte 62,114,28 // jb,pt 3b196 <.literal16+0x6a6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3beda <.literal16+0x6aa>
+ .byte 62,114,28 // jb,pt 3b19a <.literal16+0x6aa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -60316,15 +59517,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d674d25 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a135>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d673fe5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a07d>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3bf33 <.literal16+0x703>
- .byte 114,249 // jb 3beef <.literal16+0x6bf>
- .byte 127,63 // jg 3bf37 <.literal16+0x707>
- .byte 114,249 // jb 3bef3 <.literal16+0x6c3>
- .byte 127,63 // jg 3bf3b <.literal16+0x70b>
- .byte 114,249 // jb 3bef7 <.literal16+0x6c7>
- .byte 127,63 // jg 3bf3f <.literal16+0x70f>
+ .byte 127,63 // jg 3b1f3 <.literal16+0x703>
+ .byte 114,249 // jb 3b1af <.literal16+0x6bf>
+ .byte 127,63 // jg 3b1f7 <.literal16+0x707>
+ .byte 114,249 // jb 3b1b3 <.literal16+0x6c3>
+ .byte 127,63 // jg 3b1fb <.literal16+0x70b>
+ .byte 114,249 // jb 3b1b7 <.literal16+0x6c7>
+ .byte 127,63 // jg 3b1ff <.literal16+0x70f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -60348,9 +59549,9 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3d035 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02445>
+ .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3c2f5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0238d>
.byte 16,17 // adc %dl,(%rcx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3d03e <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0244e>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3c2fe <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02396>
.byte 17,192 // adc %eax,%eax
.byte 18,120,57 // adc 0x39(%rax),%bh
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -60454,14 +59655,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 3c021 <.literal16+0x7f1>
- .byte 224,255 // loopne 3c023 <.literal16+0x7f3>
- .byte 224,255 // loopne 3c025 <.literal16+0x7f5>
- .byte 224,255 // loopne 3c027 <.literal16+0x7f7>
- .byte 224,255 // loopne 3c029 <.literal16+0x7f9>
- .byte 224,255 // loopne 3c02b <.literal16+0x7fb>
- .byte 224,255 // loopne 3c02d <.literal16+0x7fd>
- .byte 224,255 // loopne 3c02f <.literal16+0x7ff>
+ .byte 224,255 // loopne 3b2e1 <.literal16+0x7f1>
+ .byte 224,255 // loopne 3b2e3 <.literal16+0x7f3>
+ .byte 224,255 // loopne 3b2e5 <.literal16+0x7f5>
+ .byte 224,255 // loopne 3b2e7 <.literal16+0x7f7>
+ .byte 224,255 // loopne 3b2e9 <.literal16+0x7f9>
+ .byte 224,255 // loopne 3b2eb <.literal16+0x7fb>
+ .byte 224,255 // loopne 3b2ed <.literal16+0x7fd>
+ .byte 224,255 // loopne 3b2ef <.literal16+0x7ff>
.byte 15,0,15 // str (%rdi)
.byte 0,15 // add %cl,(%rdi)
.byte 0,15 // add %cl,(%rdi)
@@ -60534,9 +59735,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3c0cb <.literal8+0x1b>
+ .byte 127,0 // jg 3b38b <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3c0cf <.literal8+0x1f>
+ .byte 127,0 // jg 3b38f <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -60648,7 +59849,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,23,253,0,0 // addps 0xfd17(%eax),%xmm1
+ .byte 15,88,136,71,250,0,0 // addps 0xfa47(%eax),%xmm1
.byte 141,114,8 // lea 0x8(%edx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,81,64 // movaps %xmm2,0x40(%ecx)
@@ -60656,7 +59857,7 @@ _sk_seed_shader_sse2:
.byte 15,41,81,32 // movaps %xmm2,0x20(%ecx)
.byte 15,41,81,16 // movaps %xmm2,0x10(%ecx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,39,253,0,0 // movaps 0xfd27(%eax),%xmm2
+ .byte 15,40,144,87,250,0,0 // movaps 0xfa57(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
@@ -60683,15 +59884,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,192,252,0,0 // paddd 0xfcc0(%ecx),%xmm4
+ .byte 102,15,254,161,240,249,0,0 // paddd 0xf9f0(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,208,252,0,0 // movdqa 0xfcd0(%ecx),%xmm6
+ .byte 102,15,111,177,0,250,0,0 // movdqa 0xfa00(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,240,252,0,0 // movdqa 0xfcf0(%ecx),%xmm0
+ .byte 102,15,111,129,32,250,0,0 // movdqa 0xfa20(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -60701,7 +59902,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,224,252,0,0 // movdqa 0xfce0(%ecx),%xmm1
+ .byte 102,15,111,137,16,250,0,0 // movdqa 0xfa10(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -60712,8 +59913,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,0,253,0,0 // mulps 0xfd00(%ecx),%xmm0
- .byte 15,88,129,16,253,0,0 // addps 0xfd10(%ecx),%xmm0
+ .byte 15,89,129,48,250,0,0 // mulps 0xfa30(%ecx),%xmm0
+ .byte 15,88,129,64,250,0,0 // addps 0xfa40(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -60781,7 +59982,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,116,251,0,0 // movaps 0xfb74(%eax),%xmm3
+ .byte 15,40,152,164,248,0,0 // movaps 0xf8a4(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -60804,7 +60005,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,68,251,0,0 // movaps 0xfb44(%eax),%xmm0
+ .byte 15,40,128,116,248,0,0 // movaps 0xf874(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -60894,7 +60095,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,149,250,0,0 // movaps 0xfa95(%edx),%xmm5
+ .byte 15,40,170,197,247,0,0 // movaps 0xf7c5(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -60933,7 +60134,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,54,250,0,0 // movaps 0xfa36(%edx),%xmm4
+ .byte 15,40,162,102,247,0,0 // movaps 0xf766(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -61017,7 +60218,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,117,249,0,0 // movaps 0xf975(%eax),%xmm4
+ .byte 15,40,160,165,246,0,0 // movaps 0xf6a5(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -61043,7 +60244,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,61,249,0,0 // movaps 0xf93d(%eax),%xmm4
+ .byte 15,40,160,109,246,0,0 // movaps 0xf66d(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -61073,7 +60274,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,246,248,0,0 // movaps 0xf8f6(%eax),%xmm4
+ .byte 15,40,160,38,246,0,0 // movaps 0xf626(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -61107,7 +60308,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,166,248,0,0 // movaps 0xf8a6(%eax),%xmm4
+ .byte 15,40,160,214,245,0,0 // movaps 0xf5d6(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -61163,7 +60364,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,39,248,0,0 // movaps 0xf827(%ecx),%xmm0
+ .byte 15,40,129,87,245,0,0 // movaps 0xf557(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -61223,7 +60424,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,129,247,0,0 // movaps 0xf781(%eax),%xmm4
+ .byte 15,40,160,177,244,0,0 // movaps 0xf4b1(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -61295,7 +60496,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,211,246,0,0 // movaps 0xf6d3(%edx),%xmm3
+ .byte 15,40,154,3,244,0,0 // movaps 0xf403(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -61357,7 +60558,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,107,246,0,0 // movaps 0xf66b(%edx),%xmm1
+ .byte 15,40,138,155,243,0,0 // movaps 0xf39b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -61406,7 +60607,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,235,245,0,0 // movaps 0xf5eb(%edx),%xmm1
+ .byte 15,40,138,27,243,0,0 // movaps 0xf31b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -61459,7 +60660,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,104,245,0,0 // movaps 0xf568(%edx),%xmm2
+ .byte 15,40,146,152,242,0,0 // movaps 0xf298(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -61503,7 +60704,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,226,244,0,0 // movaps 0xf4e2(%edx),%xmm1
+ .byte 15,40,138,18,242,0,0 // movaps 0xf212(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -61544,7 +60745,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,99,244,0,0 // movaps 0xf463(%ecx),%xmm6
+ .byte 15,40,177,147,241,0,0 // movaps 0xf193(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -61661,7 +60862,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,218,242,0,0 // movaps 0xf2da(%ecx),%xmm2
+ .byte 15,40,145,10,240,0,0 // movaps 0xf00a(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -61778,7 +60979,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,121,241,0,0 // movaps 0xf179(%ecx),%xmm2
+ .byte 15,40,145,169,238,0,0 // movaps 0xeea9(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -61888,7 +61089,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,46,240,0,0 // movaps 0xf02e(%ecx),%xmm4
+ .byte 15,40,161,94,237,0,0 // movaps 0xed5e(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -62016,17 +61217,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,14,239,0,0 // movaps 0xef0e(%ecx),%xmm1
+ .byte 15,40,137,62,236,0,0 // movaps 0xec3e(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,158,238,0,0 // movaps 0xee9e(%ecx),%xmm7
+ .byte 15,40,185,206,235,0,0 // movaps 0xebce(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,30,239,0,0 // movaps 0xef1e(%ecx),%xmm4
+ .byte 15,40,161,78,236,0,0 // movaps 0xec4e(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -62232,7 +61433,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,221,235,0,0 // movaps 0xebdd(%ecx),%xmm5
+ .byte 15,40,169,13,233,0,0 // movaps 0xe90d(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -62265,17 +61466,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,109,236,0,0 // movaps 0xec6d(%ecx),%xmm3
+ .byte 15,40,153,157,233,0,0 // movaps 0xe99d(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,125,236,0,0 // movaps 0xec7d(%ecx),%xmm3
+ .byte 15,40,153,173,233,0,0 // movaps 0xe9ad(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,221,235,0,0 // movaps 0xebdd(%ecx),%xmm1
+ .byte 15,40,137,13,233,0,0 // movaps 0xe90d(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -62285,7 +61486,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,141,236,0,0 // movaps 0xec8d(%ecx),%xmm5
+ .byte 15,40,169,189,233,0,0 // movaps 0xe9bd(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -62478,17 +61679,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,25,233,0,0 // movaps 0xe919(%ecx),%xmm3
+ .byte 15,40,153,73,230,0,0 // movaps 0xe649(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,41,233,0,0 // movaps 0xe929(%ecx),%xmm3
+ .byte 15,40,153,89,230,0,0 // movaps 0xe659(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,137,232,0,0 // movaps 0xe889(%ecx),%xmm0
+ .byte 15,40,129,185,229,0,0 // movaps 0xe5b9(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -62500,7 +61701,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,57,233,0,0 // movaps 0xe939(%ecx),%xmm0
+ .byte 15,40,129,105,230,0,0 // movaps 0xe669(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -62659,16 +61860,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,190,230,0,0 // movaps 0xe6be(%ecx),%xmm6
+ .byte 15,40,177,238,227,0,0 // movaps 0xe3ee(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,206,230,0,0 // movaps 0xe6ce(%ecx),%xmm3
+ .byte 15,40,153,254,227,0,0 // movaps 0xe3fe(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,46,230,0,0 // movaps 0xe62e(%ecx),%xmm0
+ .byte 15,40,129,94,227,0,0 // movaps 0xe35e(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -62678,7 +61879,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,222,230,0,0 // movaps 0xe6de(%ecx),%xmm1
+ .byte 15,40,137,14,228,0,0 // movaps 0xe40e(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -62837,18 +62038,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,91,228,0,0 // movaps 0xe45b(%ecx),%xmm4
+ .byte 15,40,161,139,225,0,0 // movaps 0xe18b(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,107,228,0,0 // movaps 0xe46b(%ecx),%xmm4
+ .byte 15,40,161,155,225,0,0 // movaps 0xe19b(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,203,227,0,0 // movaps 0xe3cb(%ecx),%xmm4
+ .byte 15,40,161,251,224,0,0 // movaps 0xe0fb(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -62858,7 +62059,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,123,228,0,0 // movaps 0xe47b(%ecx),%xmm1
+ .byte 15,40,137,171,225,0,0 // movaps 0xe1ab(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -63035,7 +62236,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,2,1,0,0 // jne 1db8 <_sk_srcover_rgba_8888_sse2+0x13f>
.byte 243,15,111,12,178 // movdqu (%edx,%esi,4),%xmm1
- .byte 102,15,111,135,28,226,0,0 // movdqa 0xe21c(%edi),%xmm0
+ .byte 102,15,111,135,76,223,0,0 // movdqa 0xdf4c(%edi),%xmm0
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -63046,9 +62247,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,248 // pand %xmm0,%xmm7
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
.byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,167,92,225,0,0 // movaps 0xe15c(%edi),%xmm4
+ .byte 15,40,167,140,222,0,0 // movaps 0xde8c(%edi),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,151,44,226,0,0 // movaps 0xe22c(%edi),%xmm2
+ .byte 15,40,151,92,223,0,0 // movaps 0xdf5c(%edi),%xmm2
.byte 15,89,234 // mulps %xmm2,%xmm5
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
@@ -63168,7 +62369,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,252,0,0,0 // jne 1f66 <_sk_srcover_bgra_8888_sse2+0x138>
.byte 243,15,111,36,178 // movdqu (%edx,%esi,4),%xmm4
- .byte 102,15,111,135,104,224,0,0 // movdqa 0xe068(%edi),%xmm0
+ .byte 102,15,111,135,152,221,0,0 // movdqa 0xdd98(%edi),%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
@@ -63183,9 +62384,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,41,73,32 // movaps %xmm1,0x20(%ecx)
.byte 15,91,198 // cvtdq2ps %xmm6,%xmm0
.byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,175,168,223,0,0 // movaps 0xdfa8(%edi),%xmm5
+ .byte 15,40,175,216,220,0,0 // movaps 0xdcd8(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,183,120,224,0,0 // movaps 0xe078(%edi),%xmm6
+ .byte 15,40,183,168,221,0,0 // movaps 0xdda8(%edi),%xmm6
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,88,199 // addps %xmm7,%xmm0
@@ -63304,7 +62505,7 @@ _sk_clamp_1_sse2:
.byte 232,0,0,0,0 // call 2010 <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,224,221,0,0 // movaps 0xdde0(%eax),%xmm4
+ .byte 15,40,160,16,219,0,0 // movaps 0xdb10(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -63328,7 +62529,7 @@ _sk_clamp_a_sse2:
.byte 232,0,0,0,0 // call 2043 <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,173,221,0,0 // minps 0xddad(%eax),%xmm3
+ .byte 15,93,152,221,218,0,0 // minps 0xdadd(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -63353,7 +62554,7 @@ _sk_clamp_a_dst_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,125,221,0,0 // minps 0xdd7d(%eax),%xmm4
+ .byte 15,93,160,173,218,0,0 // minps 0xdaad(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -63427,7 +62628,7 @@ _sk_invert_sse2:
.byte 232,0,0,0,0 // call 211e <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,210,220,0,0 // movaps 0xdcd2(%eax),%xmm4
+ .byte 15,40,160,2,218,0,0 // movaps 0xda02(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -63549,10 +62750,10 @@ _sk_unpremul_sse2:
.byte 232,0,0,0,0 // call 221c <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,212,219,0,0 // movaps 0xdbd4(%eax),%xmm4
+ .byte 15,40,160,4,217,0,0 // movaps 0xd904(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,168,180,220,0,0,1 // cmpltps 0xdcb4(%eax),%xmm5
+ .byte 15,194,168,228,217,0,0,1 // cmpltps 0xd9e4(%eax),%xmm5
.byte 15,84,236 // andps %xmm4,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -63581,19 +62782,19 @@ _sk_from_srgb_sse2:
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,22,220,0,0 // movaps 0xdc16(%eax),%xmm4
+ .byte 15,40,160,70,217,0,0 // movaps 0xd946(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,134,220,0,0 // movaps 0xdc86(%eax),%xmm6
+ .byte 15,40,176,182,217,0,0 // movaps 0xd9b6(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,118,220,0,0 // movaps 0xdc76(%eax),%xmm6
+ .byte 15,40,176,166,217,0,0 // movaps 0xd9a6(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,150,220,0,0 // movaps 0xdc96(%eax),%xmm7
+ .byte 15,40,184,198,217,0,0 // movaps 0xd9c6(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,166,220,0,0 // movaps 0xdca6(%eax),%xmm7
+ .byte 15,40,184,214,217,0,0 // movaps 0xd9d6(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -63653,18 +62854,18 @@ _sk_from_srgb_dst_sse2:
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,59,219,0,0 // movaps 0xdb3b(%ecx),%xmm4
+ .byte 15,40,161,107,216,0,0 // movaps 0xd86b(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,171,219,0,0 // movaps 0xdbab(%ecx),%xmm6
+ .byte 15,40,177,219,216,0,0 // movaps 0xd8db(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,155,219,0,0 // movaps 0xdb9b(%ecx),%xmm5
+ .byte 15,40,169,203,216,0,0 // movaps 0xd8cb(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,187,219,0,0 // movaps 0xdbbb(%ecx),%xmm7
+ .byte 15,40,185,235,216,0,0 // movaps 0xd8eb(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,203,219,0,0 // movaps 0xdbcb(%ecx),%xmm3
+ .byte 15,40,153,251,216,0,0 // movaps 0xd8fb(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -63726,25 +62927,25 @@ _sk_to_srgb_sse2:
.byte 232,0,0,0,0 // call 2430 <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,0,219,0,0 // movaps 0xdb00(%eax),%xmm4
+ .byte 15,40,160,48,216,0,0 // movaps 0xd830(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,16,219,0,0 // movaps 0xdb10(%eax),%xmm0
+ .byte 15,40,128,64,216,0,0 // movaps 0xd840(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,32,219,0,0 // movaps 0xdb20(%eax),%xmm0
+ .byte 15,40,128,80,216,0,0 // movaps 0xd850(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,48,219,0,0 // movaps 0xdb30(%eax),%xmm0
+ .byte 15,40,128,96,216,0,0 // movaps 0xd860(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,240,218,0,0 // movaps 0xdaf0(%eax),%xmm5
+ .byte 15,40,168,32,216,0,0 // movaps 0xd820(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,64,219,0,0 // movaps 0xdb40(%eax),%xmm3
+ .byte 15,40,152,112,216,0,0 // movaps 0xd870(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -63815,14 +63016,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,201,216,0,0 // movaps 0xd8c9(%eax),%xmm1
+ .byte 15,40,136,249,213,0,0 // movaps 0xd5f9(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,89,218,0,0 // andps 0xda59(%eax),%xmm5
+ .byte 15,84,168,137,215,0,0 // andps 0xd789(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -63832,9 +63033,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,105,218,0,0 // movaps 0xda69(%eax),%xmm1
+ .byte 15,40,136,153,215,0,0 // movaps 0xd799(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,121,218,0,0 // addps 0xda79(%eax),%xmm4
+ .byte 15,88,160,169,215,0,0 // addps 0xd7a9(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -63846,7 +63047,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,185,216,0,0 // movaps 0xd8b9(%eax),%xmm5
+ .byte 15,40,168,233,213,0,0 // movaps 0xd5e9(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -63856,7 +63057,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,137,218,0,0 // mulps 0xda89(%eax),%xmm0
+ .byte 15,89,128,185,215,0,0 // mulps 0xd7b9(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -63881,7 +63082,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
.byte 232,0,0,0,0 // call 2622 <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,190,215,0,0 // movaps 0xd7be(%eax),%xmm4
+ .byte 15,40,160,238,212,0,0 // movaps 0xd4ee(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -63894,13 +63095,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,158,217,0,0 // movaps 0xd99e(%eax),%xmm5
+ .byte 15,40,168,206,214,0,0 // movaps 0xd6ce(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,206,215,0,0 // movaps 0xd7ce(%eax),%xmm6
+ .byte 15,40,176,254,212,0,0 // movaps 0xd4fe(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -63910,19 +63111,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,174,217,0,0 // movaps 0xd9ae(%eax),%xmm7
+ .byte 15,40,184,222,214,0,0 // movaps 0xd6de(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,142,217,0,0 // movaps 0xd98e(%eax),%xmm4
+ .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,94,217,0,0 // movaps 0xd95e(%eax),%xmm6
+ .byte 15,40,176,142,214,0,0 // movaps 0xd68e(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,126,217,0,0 // movaps 0xd97e(%eax),%xmm0
+ .byte 15,40,128,174,214,0,0 // movaps 0xd6ae(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -63948,18 +63149,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,206,215,0,0 // andps 0xd7ce(%eax),%xmm1
+ .byte 15,84,136,254,212,0,0 // andps 0xd4fe(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,174,217,0,0 // movaps 0xd9ae(%eax),%xmm0
+ .byte 15,40,128,222,214,0,0 // movaps 0xd6de(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,190,215,0,0 // movaps 0xd7be(%eax),%xmm3
+ .byte 15,40,152,238,212,0,0 // movaps 0xd4ee(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,142,217,0,0 // movaps 0xd98e(%eax),%xmm4
+ .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,126,217,0,0 // movaps 0xd97e(%eax),%xmm5
+ .byte 15,40,168,174,214,0,0 // movaps 0xd6ae(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -63979,7 +63180,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,190,217,0,0 // addps 0xd9be(%eax),%xmm3
+ .byte 15,88,152,238,214,0,0 // addps 0xd6ee(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -64081,9 +63282,9 @@ _sk_scale_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,20,214,0,0 // pand 0xd614(%edx),%xmm4
+ .byte 102,15,219,162,68,211,0,0 // pand 0xd344(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,84,215,0,0 // mulps 0xd754(%edx),%xmm4
+ .byte 15,89,162,132,212,0,0 // mulps 0xd484(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -64149,17 +63350,17 @@ _sk_scale_565_sse2:
.byte 15,133,157,0,0,0 // jne 2a14 <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,170,214,0,0 // movdqa 0xd6aa(%edx),%xmm4
+ .byte 102,15,111,162,218,211,0,0 // movdqa 0xd3da(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,186,214,0,0 // mulps 0xd6ba(%edx),%xmm2
- .byte 102,15,111,170,202,214,0,0 // movdqa 0xd6ca(%edx),%xmm5
+ .byte 15,89,146,234,211,0,0 // mulps 0xd3ea(%edx),%xmm2
+ .byte 102,15,111,170,250,211,0,0 // movdqa 0xd3fa(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,218,214,0,0 // mulps 0xd6da(%edx),%xmm5
- .byte 102,15,219,178,234,214,0,0 // pand 0xd6ea(%edx),%xmm6
+ .byte 15,89,170,10,212,0,0 // mulps 0xd40a(%edx),%xmm5
+ .byte 102,15,219,178,26,212,0,0 // pand 0xd41a(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,250,214,0,0 // mulps 0xd6fa(%edx),%xmm6
+ .byte 15,89,178,42,212,0,0 // mulps 0xd42a(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -64273,9 +63474,9 @@ _sk_lerp_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,236,211,0,0 // pand 0xd3ec(%edx),%xmm4
+ .byte 102,15,219,162,28,209,0,0 // pand 0xd11c(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,44,213,0,0 // mulps 0xd52c(%edx),%xmm4
+ .byte 15,89,162,92,210,0,0 // mulps 0xd25c(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -64353,17 +63554,17 @@ _sk_lerp_565_sse2:
.byte 15,133,211,0,0,0 // jne 2ca2 <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,82,212,0,0 // movdqa 0xd452(%edx),%xmm4
+ .byte 102,15,111,162,130,209,0,0 // movdqa 0xd182(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,98,212,0,0 // mulps 0xd462(%edx),%xmm1
- .byte 102,15,111,178,114,212,0,0 // movdqa 0xd472(%edx),%xmm6
+ .byte 15,89,138,146,209,0,0 // mulps 0xd192(%edx),%xmm1
+ .byte 102,15,111,178,162,209,0,0 // movdqa 0xd1a2(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,130,212,0,0 // mulps 0xd482(%edx),%xmm6
- .byte 102,15,219,170,146,212,0,0 // pand 0xd492(%edx),%xmm5
+ .byte 15,89,178,178,209,0,0 // mulps 0xd1b2(%edx),%xmm6
+ .byte 102,15,219,170,194,209,0,0 // pand 0xd1c2(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,162,212,0,0 // mulps 0xd4a2(%edx),%xmm2
+ .byte 15,89,146,210,209,0,0 // mulps 0xd1d2(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -64451,7 +63652,7 @@ _sk_load_tables_sse2:
.byte 139,30 // mov (%esi),%ebx
.byte 15,133,22,1,0,0 // jne 2e26 <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,184,209,0,0 // movdqa 0xd1b8(%edx),%xmm2
+ .byte 102,15,111,146,232,206,0,0 // movdqa 0xcee8(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -64507,7 +63708,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,248,210,0,0 // mulps 0xd2f8(%edx),%xmm3
+ .byte 15,89,154,40,208,0,0 // mulps 0xd028(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -64582,7 +63783,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,247,209,0,0 // movdqa 0xd1f7(%edx),%xmm2
+ .byte 102,15,111,146,39,207,0,0 // movdqa 0xcf27(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -64654,7 +63855,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,7,210,0,0 // mulps 0xd207(%edx),%xmm3
+ .byte 15,89,154,55,207,0,0 // mulps 0xcf37(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -64727,7 +63928,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,208,207,0,0 // movdqa 0xcfd0(%edx),%xmm2
+ .byte 102,15,111,146,0,205,0,0 // movdqa 0xcd00(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -64792,7 +63993,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,96,205,0,0 // movaps 0xcd60(%edx),%xmm3
+ .byte 15,40,154,144,202,0,0 // movaps 0xca90(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -64837,9 +64038,9 @@ _sk_byte_tables_sse2:
.byte 139,16 // mov (%eax),%edx
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,51,203,0,0 // movaps 0xcb33(%ecx),%xmm0
+ .byte 15,40,129,99,200,0,0 // movaps 0xc863(%ecx),%xmm0
.byte 15,93,232 // minps %xmm0,%xmm5
- .byte 15,40,161,3,204,0,0 // movaps 0xcc03(%ecx),%xmm4
+ .byte 15,40,161,51,201,0,0 // movaps 0xc933(%ecx),%xmm4
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
@@ -64939,7 +64140,7 @@ _sk_byte_tables_sse2:
.byte 102,15,97,218 // punpcklwd %xmm2,%xmm3
.byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
.byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
- .byte 15,40,169,51,205,0,0 // movaps 0xcd33(%ecx),%xmm5
+ .byte 15,40,169,99,202,0,0 // movaps 0xca63(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -64981,7 +64182,7 @@ _sk_byte_tables_rgb_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,96,201,0,0 // movaps 0xc960(%ecx),%xmm0
+ .byte 15,40,129,144,198,0,0 // movaps 0xc690(%ecx),%xmm0
.byte 15,93,232 // minps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -65057,7 +64258,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,96,225 // punpcklbw %xmm1,%xmm4
.byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
- .byte 15,40,169,96,203,0,0 // movaps 0xcb60(%ecx),%xmm5
+ .byte 15,40,169,144,200,0,0 // movaps 0xc890(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,91,202 // cvtdq2ps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -65095,7 +64296,7 @@ _sk_table_r_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,93,170,222,199,0,0 // minps 0xc7de(%edx),%xmm5
+ .byte 15,93,170,14,197,0,0 // minps 0xc50e(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -65140,7 +64341,7 @@ _sk_table_g_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,233 // maxps %xmm1,%xmm5
- .byte 15,93,170,88,199,0,0 // minps 0xc758(%edx),%xmm5
+ .byte 15,93,170,136,196,0,0 // minps 0xc488(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
@@ -65185,7 +64386,7 @@ _sk_table_b_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,234 // maxps %xmm2,%xmm5
- .byte 15,93,170,210,198,0,0 // minps 0xc6d2(%edx),%xmm5
+ .byte 15,93,170,2,196,0,0 // minps 0xc402(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,213 // cvtps2dq %xmm5,%xmm2
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
@@ -65230,7 +64431,7 @@ _sk_table_a_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,235 // maxps %xmm3,%xmm5
- .byte 15,93,170,76,198,0,0 // minps 0xc64c(%edx),%xmm5
+ .byte 15,93,170,124,195,0,0 // minps 0xc37c(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,221 // cvtps2dq %xmm5,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -65287,16 +64488,16 @@ _sk_parametric_r_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,85,200,0,0 // mulps 0xc855(%edx),%xmm6
- .byte 15,40,186,101,200,0,0 // movaps 0xc865(%edx),%xmm7
+ .byte 15,89,178,133,197,0,0 // mulps 0xc585(%edx),%xmm6
+ .byte 15,40,186,149,197,0,0 // movaps 0xc595(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,181,197,0,0 // orps 0xc5b5(%edx),%xmm7
- .byte 15,88,178,117,200,0,0 // addps 0xc875(%edx),%xmm6
- .byte 15,40,162,133,200,0,0 // movaps 0xc885(%edx),%xmm4
+ .byte 15,86,186,229,194,0,0 // orps 0xc2e5(%edx),%xmm7
+ .byte 15,88,178,165,197,0,0 // addps 0xc5a5(%edx),%xmm6
+ .byte 15,40,162,181,197,0,0 // movaps 0xc5b5(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,149,200,0,0 // addps 0xc895(%edx),%xmm7
- .byte 15,40,162,165,200,0,0 // movaps 0xc8a5(%edx),%xmm4
+ .byte 15,88,186,197,197,0,0 // addps 0xc5c5(%edx),%xmm7
+ .byte 15,40,162,213,197,0,0 // movaps 0xc5d5(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -65306,21 +64507,21 @@ _sk_parametric_r_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,197,197,0,0 // movaps 0xc5c5(%edx),%xmm7
+ .byte 15,40,186,245,194,0,0 // movaps 0xc2f5(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,181,200,0,0 // addps 0xc8b5(%edx),%xmm6
- .byte 15,40,162,197,200,0,0 // movaps 0xc8c5(%edx),%xmm4
+ .byte 15,88,178,229,197,0,0 // addps 0xc5e5(%edx),%xmm6
+ .byte 15,40,162,245,197,0,0 // movaps 0xc5f5(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,213,200,0,0 // movaps 0xc8d5(%edx),%xmm4
+ .byte 15,40,162,5,198,0,0 // movaps 0xc605(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,229,200,0,0 // movaps 0xc8e5(%edx),%xmm0
+ .byte 15,40,130,21,198,0,0 // movaps 0xc615(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,245,200,0,0 // mulps 0xc8f5(%edx),%xmm0
+ .byte 15,89,130,37,198,0,0 // mulps 0xc625(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65376,16 +64577,16 @@ _sk_parametric_g_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,18,199,0,0 // mulps 0xc712(%edx),%xmm6
- .byte 15,40,186,34,199,0,0 // movaps 0xc722(%edx),%xmm7
+ .byte 15,89,178,66,196,0,0 // mulps 0xc442(%edx),%xmm6
+ .byte 15,40,186,82,196,0,0 // movaps 0xc452(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,114,196,0,0 // orps 0xc472(%edx),%xmm7
- .byte 15,88,178,50,199,0,0 // addps 0xc732(%edx),%xmm6
- .byte 15,40,162,66,199,0,0 // movaps 0xc742(%edx),%xmm4
+ .byte 15,86,186,162,193,0,0 // orps 0xc1a2(%edx),%xmm7
+ .byte 15,88,178,98,196,0,0 // addps 0xc462(%edx),%xmm6
+ .byte 15,40,162,114,196,0,0 // movaps 0xc472(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,82,199,0,0 // addps 0xc752(%edx),%xmm7
- .byte 15,40,162,98,199,0,0 // movaps 0xc762(%edx),%xmm4
+ .byte 15,88,186,130,196,0,0 // addps 0xc482(%edx),%xmm7
+ .byte 15,40,162,146,196,0,0 // movaps 0xc492(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -65395,21 +64596,21 @@ _sk_parametric_g_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,130,196,0,0 // movaps 0xc482(%edx),%xmm7
+ .byte 15,40,186,178,193,0,0 // movaps 0xc1b2(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,114,199,0,0 // addps 0xc772(%edx),%xmm6
- .byte 15,40,162,130,199,0,0 // movaps 0xc782(%edx),%xmm4
+ .byte 15,88,178,162,196,0,0 // addps 0xc4a2(%edx),%xmm6
+ .byte 15,40,162,178,196,0,0 // movaps 0xc4b2(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,146,199,0,0 // movaps 0xc792(%edx),%xmm4
+ .byte 15,40,162,194,196,0,0 // movaps 0xc4c2(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,162,199,0,0 // movaps 0xc7a2(%edx),%xmm0
+ .byte 15,40,130,210,196,0,0 // movaps 0xc4d2(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,178,199,0,0 // mulps 0xc7b2(%edx),%xmm0
+ .byte 15,89,130,226,196,0,0 // mulps 0xc4e2(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65464,16 +64665,16 @@ _sk_parametric_b_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,210,197,0,0 // mulps 0xc5d2(%edx),%xmm6
- .byte 15,40,186,226,197,0,0 // movaps 0xc5e2(%edx),%xmm7
+ .byte 15,89,178,2,195,0,0 // mulps 0xc302(%edx),%xmm6
+ .byte 15,40,186,18,195,0,0 // movaps 0xc312(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,50,195,0,0 // orps 0xc332(%edx),%xmm7
- .byte 15,88,178,242,197,0,0 // addps 0xc5f2(%edx),%xmm6
- .byte 15,40,162,2,198,0,0 // movaps 0xc602(%edx),%xmm4
+ .byte 15,86,186,98,192,0,0 // orps 0xc062(%edx),%xmm7
+ .byte 15,88,178,34,195,0,0 // addps 0xc322(%edx),%xmm6
+ .byte 15,40,162,50,195,0,0 // movaps 0xc332(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,18,198,0,0 // addps 0xc612(%edx),%xmm7
- .byte 15,40,162,34,198,0,0 // movaps 0xc622(%edx),%xmm4
+ .byte 15,88,186,66,195,0,0 // addps 0xc342(%edx),%xmm7
+ .byte 15,40,162,82,195,0,0 // movaps 0xc352(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -65483,21 +64684,21 @@ _sk_parametric_b_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,66,195,0,0 // movaps 0xc342(%edx),%xmm7
+ .byte 15,40,186,114,192,0,0 // movaps 0xc072(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,50,198,0,0 // addps 0xc632(%edx),%xmm6
- .byte 15,40,162,66,198,0,0 // movaps 0xc642(%edx),%xmm4
+ .byte 15,88,178,98,195,0,0 // addps 0xc362(%edx),%xmm6
+ .byte 15,40,162,114,195,0,0 // movaps 0xc372(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,82,198,0,0 // movaps 0xc652(%edx),%xmm4
+ .byte 15,40,162,130,195,0,0 // movaps 0xc382(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,98,198,0,0 // movaps 0xc662(%edx),%xmm0
+ .byte 15,40,130,146,195,0,0 // movaps 0xc392(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,114,198,0,0 // mulps 0xc672(%edx),%xmm0
+ .byte 15,89,130,162,195,0,0 // mulps 0xc3a2(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65552,16 +64753,16 @@ _sk_parametric_a_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,146,196,0,0 // mulps 0xc492(%edx),%xmm6
- .byte 15,40,186,162,196,0,0 // movaps 0xc4a2(%edx),%xmm7
+ .byte 15,89,178,194,193,0,0 // mulps 0xc1c2(%edx),%xmm6
+ .byte 15,40,186,210,193,0,0 // movaps 0xc1d2(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,242,193,0,0 // orps 0xc1f2(%edx),%xmm7
- .byte 15,88,178,178,196,0,0 // addps 0xc4b2(%edx),%xmm6
- .byte 15,40,162,194,196,0,0 // movaps 0xc4c2(%edx),%xmm4
+ .byte 15,86,186,34,191,0,0 // orps 0xbf22(%edx),%xmm7
+ .byte 15,88,178,226,193,0,0 // addps 0xc1e2(%edx),%xmm6
+ .byte 15,40,162,242,193,0,0 // movaps 0xc1f2(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,210,196,0,0 // addps 0xc4d2(%edx),%xmm7
- .byte 15,40,162,226,196,0,0 // movaps 0xc4e2(%edx),%xmm4
+ .byte 15,88,186,2,194,0,0 // addps 0xc202(%edx),%xmm7
+ .byte 15,40,162,18,194,0,0 // movaps 0xc212(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -65571,21 +64772,21 @@ _sk_parametric_a_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,2,194,0,0 // movaps 0xc202(%edx),%xmm7
+ .byte 15,40,186,50,191,0,0 // movaps 0xbf32(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,242,196,0,0 // addps 0xc4f2(%edx),%xmm6
- .byte 15,40,162,2,197,0,0 // movaps 0xc502(%edx),%xmm4
+ .byte 15,88,178,34,194,0,0 // addps 0xc222(%edx),%xmm6
+ .byte 15,40,162,50,194,0,0 // movaps 0xc232(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,18,197,0,0 // movaps 0xc512(%edx),%xmm4
+ .byte 15,40,162,66,194,0,0 // movaps 0xc242(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,34,197,0,0 // movaps 0xc522(%edx),%xmm0
+ .byte 15,40,130,82,194,0,0 // movaps 0xc252(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,50,197,0,0 // mulps 0xc532(%edx),%xmm0
+ .byte 15,89,130,98,194,0,0 // mulps 0xc262(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65624,17 +64825,17 @@ _sk_gamma_sse2:
.byte 232,0,0,0,0 // call 3d33 <_sk_gamma_sse2+0x1b>
.byte 88 // pop %eax
.byte 15,91,232 // cvtdq2ps %xmm0,%xmm5
- .byte 15,89,168,77,195,0,0 // mulps 0xc34d(%eax),%xmm5
- .byte 15,40,160,93,195,0,0 // movaps 0xc35d(%eax),%xmm4
+ .byte 15,89,168,125,192,0,0 // mulps 0xc07d(%eax),%xmm5
+ .byte 15,40,160,141,192,0,0 // movaps 0xc08d(%eax),%xmm4
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,86,144,173,192,0,0 // orps 0xc0ad(%eax),%xmm2
- .byte 15,88,168,109,195,0,0 // addps 0xc36d(%eax),%xmm5
+ .byte 15,86,144,221,189,0,0 // orps 0xbddd(%eax),%xmm2
+ .byte 15,88,168,157,192,0,0 // addps 0xc09d(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,136,125,195,0,0 // mulps 0xc37d(%eax),%xmm1
+ .byte 15,89,136,173,192,0,0 // mulps 0xc0ad(%eax),%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,144,141,195,0,0 // addps 0xc38d(%eax),%xmm2
- .byte 15,40,136,157,195,0,0 // movaps 0xc39d(%eax),%xmm1
+ .byte 15,88,144,189,192,0,0 // addps 0xc0bd(%eax),%xmm2
+ .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1
.byte 15,94,202 // divps %xmm2,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -65647,32 +64848,32 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,189,192,0,0 // andps 0xc0bd(%eax),%xmm1
+ .byte 15,84,136,237,189,0,0 // andps 0xbded(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,168,173,195,0,0 // addps 0xc3ad(%eax),%xmm5
- .byte 15,40,184,205,195,0,0 // movaps 0xc3cd(%eax),%xmm7
+ .byte 15,88,168,221,192,0,0 // addps 0xc0dd(%eax),%xmm5
+ .byte 15,40,184,253,192,0,0 // movaps 0xc0fd(%eax),%xmm7
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,176,189,195,0,0 // movaps 0xc3bd(%eax),%xmm6
+ .byte 15,40,176,237,192,0,0 // movaps 0xc0ed(%eax),%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,144,221,195,0,0 // movaps 0xc3dd(%eax),%xmm2
+ .byte 15,40,144,13,193,0,0 // movaps 0xc10d(%eax),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,94,216 // divps %xmm0,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,77,195,0,0 // mulps 0xc34d(%eax),%xmm0
+ .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,86,136,173,192,0,0 // orps 0xc0ad(%eax),%xmm1
- .byte 15,88,128,109,195,0,0 // addps 0xc36d(%eax),%xmm0
+ .byte 15,86,136,221,189,0,0 // orps 0xbddd(%eax),%xmm1
+ .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,168,125,195,0,0 // mulps 0xc37d(%eax),%xmm5
+ .byte 15,89,168,173,192,0,0 // mulps 0xc0ad(%eax),%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,88,136,141,195,0,0 // addps 0xc38d(%eax),%xmm1
- .byte 15,40,168,157,195,0,0 // movaps 0xc39d(%eax),%xmm5
+ .byte 15,88,136,189,192,0,0 // addps 0xc0bd(%eax),%xmm1
+ .byte 15,40,168,205,192,0,0 // movaps 0xc0cd(%eax),%xmm5
.byte 15,94,233 // divps %xmm1,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -65680,11 +64881,11 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,194,233,1 // cmpltps %xmm1,%xmm5
- .byte 15,84,168,189,192,0,0 // andps 0xc0bd(%eax),%xmm5
+ .byte 15,84,168,237,189,0,0 // andps 0xbded(%eax),%xmm5
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,128,173,195,0,0 // addps 0xc3ad(%eax),%xmm0
+ .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,89,238 // mulps %xmm6,%xmm5
@@ -65694,15 +64895,15 @@ _sk_gamma_sse2:
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,77,195,0,0 // mulps 0xc34d(%eax),%xmm0
+ .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0
.byte 15,84,225 // andps %xmm1,%xmm4
- .byte 15,86,160,173,192,0,0 // orps 0xc0ad(%eax),%xmm4
- .byte 15,88,128,109,195,0,0 // addps 0xc36d(%eax),%xmm0
- .byte 15,40,136,125,195,0,0 // movaps 0xc37d(%eax),%xmm1
+ .byte 15,86,160,221,189,0,0 // orps 0xbddd(%eax),%xmm4
+ .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0
+ .byte 15,40,136,173,192,0,0 // movaps 0xc0ad(%eax),%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,88,160,141,195,0,0 // addps 0xc38d(%eax),%xmm4
- .byte 15,40,136,157,195,0,0 // movaps 0xc39d(%eax),%xmm1
+ .byte 15,88,160,189,192,0,0 // addps 0xc0bd(%eax),%xmm4
+ .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1
.byte 15,94,204 // divps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -65710,17 +64911,17 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,225,1 // cmpltps %xmm1,%xmm4
- .byte 15,84,160,189,192,0,0 // andps 0xc0bd(%eax),%xmm4
+ .byte 15,84,160,237,189,0,0 // andps 0xbded(%eax),%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,88,128,173,195,0,0 // addps 0xc3ad(%eax),%xmm0
+ .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0
.byte 15,89,244 // mulps %xmm4,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,92,252 // subps %xmm4,%xmm7
.byte 15,94,215 // divps %xmm7,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,128,237,195,0,0 // movaps 0xc3ed(%eax),%xmm0
+ .byte 15,40,128,29,193,0,0 // movaps 0xc11d(%eax),%xmm0
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -65766,27 +64967,27 @@ _sk_gamma_dst_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,40,150,38,193,0,0 // movaps 0xc126(%esi),%xmm2
+ .byte 15,40,150,86,190,0,0 // movaps 0xbe56(%esi),%xmm2
.byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp)
.byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,166,54,193,0,0 // movaps 0xc136(%esi),%xmm4
+ .byte 15,40,166,102,190,0,0 // movaps 0xbe66(%esi),%xmm4
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,40,158,134,190,0,0 // movaps 0xbe86(%esi),%xmm3
+ .byte 15,40,158,182,187,0,0 // movaps 0xbbb6(%esi),%xmm3
.byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
.byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,40,158,70,193,0,0 // movaps 0xc146(%esi),%xmm3
+ .byte 15,40,158,118,190,0,0 // movaps 0xbe76(%esi),%xmm3
.byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp)
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,174,86,193,0,0 // movaps 0xc156(%esi),%xmm5
+ .byte 15,40,174,134,190,0,0 // movaps 0xbe86(%esi),%xmm5
.byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,158,102,193,0,0 // movaps 0xc166(%esi),%xmm3
+ .byte 15,40,158,150,190,0,0 // movaps 0xbe96(%esi),%xmm3
.byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
.byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,158,118,193,0,0 // movaps 0xc176(%esi),%xmm3
+ .byte 15,40,158,166,190,0,0 // movaps 0xbea6(%esi),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
@@ -65799,27 +65000,27 @@ _sk_gamma_dst_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,218,1 // cmpltps %xmm2,%xmm3
- .byte 15,40,174,150,190,0,0 // movaps 0xbe96(%esi),%xmm5
+ .byte 15,40,174,198,187,0,0 // movaps 0xbbc6(%esi),%xmm5
.byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
.byte 15,84,221 // andps %xmm5,%xmm3
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,40,150,134,193,0,0 // movaps 0xc186(%esi),%xmm2
+ .byte 15,40,150,182,190,0,0 // movaps 0xbeb6(%esi),%xmm2
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,190,166,193,0,0 // movaps 0xc1a6(%esi),%xmm7
+ .byte 15,40,190,214,190,0,0 // movaps 0xbed6(%esi),%xmm7
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,182,150,193,0,0 // movaps 0xc196(%esi),%xmm6
+ .byte 15,40,182,198,190,0,0 // movaps 0xbec6(%esi),%xmm6
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,40,158,182,193,0,0 // movaps 0xc1b6(%esi),%xmm3
+ .byte 15,40,158,230,190,0,0 // movaps 0xbee6(%esi),%xmm3
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,134,198,193,0,0 // movaps 0xc1c6(%esi),%xmm0
+ .byte 15,40,134,246,190,0,0 // movaps 0xbef6(%esi),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
@@ -65927,29 +65128,29 @@ _sk_lab_to_xyz_sse2:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 232,0,0,0,0 // call 41b6 <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,122,191,0,0 // mulps 0xbf7a(%eax),%xmm2
- .byte 15,40,160,10,189,0,0 // movaps 0xbd0a(%eax),%xmm4
+ .byte 15,89,144,170,188,0,0 // mulps 0xbcaa(%eax),%xmm2
+ .byte 15,40,160,58,186,0,0 // movaps 0xba3a(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,138,191,0,0 // movaps 0xbf8a(%eax),%xmm5
+ .byte 15,40,168,186,188,0,0 // movaps 0xbcba(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,154,191,0,0 // addps 0xbf9a(%eax),%xmm2
- .byte 15,89,144,170,191,0,0 // mulps 0xbfaa(%eax),%xmm2
- .byte 15,89,136,186,191,0,0 // mulps 0xbfba(%eax),%xmm1
+ .byte 15,88,144,202,188,0,0 // addps 0xbcca(%eax),%xmm2
+ .byte 15,89,144,218,188,0,0 // mulps 0xbcda(%eax),%xmm2
+ .byte 15,89,136,234,188,0,0 // mulps 0xbcea(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,202,191,0,0 // mulps 0xbfca(%eax),%xmm3
+ .byte 15,89,152,250,188,0,0 // mulps 0xbcfa(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,218,191,0,0 // movaps 0xbfda(%eax),%xmm3
+ .byte 15,40,152,10,189,0,0 // movaps 0xbd0a(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,234,191,0,0 // movaps 0xbfea(%eax),%xmm6
+ .byte 15,40,176,26,189,0,0 // movaps 0xbd1a(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,250,191,0,0 // movaps 0xbffa(%eax),%xmm7
+ .byte 15,40,184,42,189,0,0 // movaps 0xbd2a(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -65974,8 +65175,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,10,192,0,0 // mulps 0xc00a(%eax),%xmm4
- .byte 15,89,152,26,192,0,0 // mulps 0xc01a(%eax),%xmm3
+ .byte 15,89,160,58,189,0,0 // mulps 0xbd3a(%eax),%xmm4
+ .byte 15,89,152,74,189,0,0 // mulps 0xbd4a(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -66013,9 +65214,9 @@ _sk_load_a8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,10,188,0,0 // pand 0xbc0a(%edx),%xmm0
+ .byte 102,15,219,130,58,185,0,0 // pand 0xb93a(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,74,189,0,0 // mulps 0xbd4a(%edx),%xmm3
+ .byte 15,89,154,122,186,0,0 // mulps 0xba7a(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66080,9 +65281,9 @@ _sk_load_a8_dst_sse2:
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,54,187,0,0 // pand 0xbb36(%edx),%xmm4
+ .byte 102,15,219,162,102,184,0,0 // pand 0xb866(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,118,188,0,0 // mulps 0xbc76(%edx),%xmm4
+ .byte 15,89,162,166,185,0,0 // mulps 0xb9a6(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66173,7 +65374,7 @@ _sk_gather_a8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,73,187,0,0 // mulps 0xbb49(%ecx),%xmm3
+ .byte 15,89,153,121,184,0,0 // mulps 0xb879(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66209,8 +65410,8 @@ _sk_store_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,227 // maxps %xmm3,%xmm4
- .byte 15,93,166,5,185,0,0 // minps 0xb905(%esi),%xmm4
- .byte 15,89,166,213,185,0,0 // mulps 0xb9d5(%esi),%xmm4
+ .byte 15,93,166,53,182,0,0 // minps 0xb635(%esi),%xmm4
+ .byte 15,89,166,5,183,0,0 // mulps 0xb705(%esi),%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
@@ -66244,7 +65445,7 @@ _sk_store_a8_sse2:
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,245,188,0,0 // pand 0xbcf5(%esi),%xmm4
+ .byte 102,15,219,166,37,186,0,0 // pand 0xba25(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
@@ -66280,12 +65481,12 @@ _sk_load_g8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,9,185,0,0 // pand 0xb909(%edx),%xmm0
+ .byte 102,15,219,130,57,182,0,0 // pand 0xb639(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,73,186,0,0 // mulps 0xba49(%edx),%xmm0
+ .byte 15,89,130,121,183,0,0 // mulps 0xb779(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,73,184,0,0 // movaps 0xb849(%edx),%xmm3
+ .byte 15,40,154,121,181,0,0 // movaps 0xb579(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -66343,13 +65544,13 @@ _sk_load_g8_dst_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,93,184,0,0 // pand 0xb85d(%edx),%xmm4
+ .byte 102,15,219,162,141,181,0,0 // pand 0xb58d(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,157,185,0,0 // mulps 0xb99d(%edx),%xmm4
+ .byte 15,89,162,205,182,0,0 // mulps 0xb6cd(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,157,183,0,0 // movaps 0xb79d(%edx),%xmm4
+ .byte 15,40,162,205,180,0,0 // movaps 0xb4cd(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66441,10 +65642,10 @@ _sk_gather_g8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,70,184,0,0 // mulps 0xb846(%ecx),%xmm0
+ .byte 15,89,129,118,181,0,0 // mulps 0xb576(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,70,182,0,0 // movaps 0xb646(%ecx),%xmm3
+ .byte 15,40,153,118,179,0,0 // movaps 0xb376(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -66481,20 +65682,20 @@ _sk_load_565_sse2:
.byte 117,97 // jne 4873 <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,11,184,0,0 // movdqa 0xb80b(%edx),%xmm0
+ .byte 102,15,111,130,59,181,0,0 // movdqa 0xb53b(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,27,184,0,0 // mulps 0xb81b(%edx),%xmm0
- .byte 102,15,111,138,43,184,0,0 // movdqa 0xb82b(%edx),%xmm1
+ .byte 15,89,130,75,181,0,0 // mulps 0xb54b(%edx),%xmm0
+ .byte 102,15,111,138,91,181,0,0 // movdqa 0xb55b(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,59,184,0,0 // mulps 0xb83b(%edx),%xmm1
- .byte 102,15,219,146,75,184,0,0 // pand 0xb84b(%edx),%xmm2
+ .byte 15,89,138,107,181,0,0 // mulps 0xb56b(%edx),%xmm1
+ .byte 102,15,219,146,123,181,0,0 // pand 0xb57b(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,91,184,0,0 // mulps 0xb85b(%edx),%xmm2
+ .byte 15,89,146,139,181,0,0 // mulps 0xb58b(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,251,181,0,0 // movaps 0xb5fb(%edx),%xmm3
+ .byte 15,40,154,43,179,0,0 // movaps 0xb32b(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -66548,21 +65749,21 @@ _sk_load_565_dst_sse2:
.byte 117,113 // jne 4953 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,59,183,0,0 // movdqa 0xb73b(%edx),%xmm5
+ .byte 102,15,111,170,107,180,0,0 // movdqa 0xb46b(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,75,183,0,0 // mulps 0xb74b(%edx),%xmm5
+ .byte 15,89,170,123,180,0,0 // mulps 0xb47b(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,91,183,0,0 // movdqa 0xb75b(%edx),%xmm5
+ .byte 102,15,111,170,139,180,0,0 // movdqa 0xb48b(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,107,183,0,0 // mulps 0xb76b(%edx),%xmm5
+ .byte 15,89,170,155,180,0,0 // mulps 0xb49b(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,123,183,0,0 // pand 0xb77b(%edx),%xmm4
+ .byte 102,15,219,162,171,180,0,0 // pand 0xb4ab(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,139,183,0,0 // mulps 0xb78b(%edx),%xmm4
+ .byte 15,89,162,187,180,0,0 // mulps 0xb4bb(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,43,181,0,0 // movaps 0xb52b(%edx),%xmm4
+ .byte 15,40,162,91,178,0,0 // movaps 0xb25b(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66647,20 +65848,20 @@ _sk_gather_565_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,185,181,0,0 // movdqa 0xb5b9(%edx),%xmm0
+ .byte 102,15,111,130,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,201,181,0,0 // mulps 0xb5c9(%edx),%xmm0
- .byte 102,15,111,138,217,181,0,0 // movdqa 0xb5d9(%edx),%xmm1
+ .byte 15,89,130,249,178,0,0 // mulps 0xb2f9(%edx),%xmm0
+ .byte 102,15,111,138,9,179,0,0 // movdqa 0xb309(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,233,181,0,0 // mulps 0xb5e9(%edx),%xmm1
- .byte 102,15,219,146,249,181,0,0 // pand 0xb5f9(%edx),%xmm2
+ .byte 15,89,138,25,179,0,0 // mulps 0xb319(%edx),%xmm1
+ .byte 102,15,219,146,41,179,0,0 // pand 0xb329(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,9,182,0,0 // mulps 0xb609(%edx),%xmm2
+ .byte 15,89,146,57,179,0,0 // mulps 0xb339(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,169,179,0,0 // movaps 0xb3a9(%edx),%xmm3
+ .byte 15,40,154,217,176,0,0 // movaps 0xb0d9(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -66683,14 +65884,14 @@ _sk_store_565_sse2:
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,182,54,179,0,0 // movaps 0xb336(%esi),%xmm6
+ .byte 15,40,182,102,176,0,0 // movaps 0xb066(%esi),%xmm6
.byte 15,93,238 // minps %xmm6,%xmm5
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,95,249 // maxps %xmm1,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,95,226 // maxps %xmm2,%xmm4
.byte 15,93,230 // minps %xmm6,%xmm4
- .byte 15,40,182,54,183,0,0 // movaps 0xb736(%esi),%xmm6
+ .byte 15,40,182,102,180,0,0 // movaps 0xb466(%esi),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -66705,7 +65906,7 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,23 // add (%edi),%edx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,89,190,70,183,0,0 // mulps 0xb746(%esi),%xmm7
+ .byte 15,89,190,118,180,0,0 // mulps 0xb476(%esi),%xmm7
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 102,15,91,239 // cvtps2dq %xmm7,%xmm5
.byte 102,15,114,245,5 // pslld $0x5,%xmm5
@@ -66777,21 +65978,21 @@ _sk_load_4444_sse2:
.byte 117,112 // jne 4c45 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,88,182,0,0 // movdqa 0xb658(%edx),%xmm0
+ .byte 102,15,111,130,136,179,0,0 // movdqa 0xb388(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,104,182,0,0 // mulps 0xb668(%edx),%xmm0
- .byte 102,15,111,138,120,182,0,0 // movdqa 0xb678(%edx),%xmm1
+ .byte 15,89,130,152,179,0,0 // mulps 0xb398(%edx),%xmm0
+ .byte 102,15,111,138,168,179,0,0 // movdqa 0xb3a8(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,136,182,0,0 // mulps 0xb688(%edx),%xmm1
- .byte 102,15,111,146,152,182,0,0 // movdqa 0xb698(%edx),%xmm2
+ .byte 15,89,138,184,179,0,0 // mulps 0xb3b8(%edx),%xmm1
+ .byte 102,15,111,146,200,179,0,0 // movdqa 0xb3c8(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,168,182,0,0 // mulps 0xb6a8(%edx),%xmm2
- .byte 102,15,219,154,184,182,0,0 // pand 0xb6b8(%edx),%xmm3
+ .byte 15,89,146,216,179,0,0 // mulps 0xb3d8(%edx),%xmm2
+ .byte 102,15,219,154,232,179,0,0 // pand 0xb3e8(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,200,182,0,0 // mulps 0xb6c8(%edx),%xmm3
+ .byte 15,89,154,248,179,0,0 // mulps 0xb3f8(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -66847,24 +66048,24 @@ _sk_load_4444_dst_sse2:
.byte 15,133,128,0,0,0 // jne 4d38 <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,121,181,0,0 // movdqa 0xb579(%edx),%xmm5
+ .byte 102,15,111,170,169,178,0,0 // movdqa 0xb2a9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,137,181,0,0 // mulps 0xb589(%edx),%xmm5
+ .byte 15,89,170,185,178,0,0 // mulps 0xb2b9(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,153,181,0,0 // movdqa 0xb599(%edx),%xmm5
+ .byte 102,15,111,170,201,178,0,0 // movdqa 0xb2c9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,169,181,0,0 // mulps 0xb5a9(%edx),%xmm5
+ .byte 15,89,170,217,178,0,0 // mulps 0xb2d9(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,185,181,0,0 // movdqa 0xb5b9(%edx),%xmm5
+ .byte 102,15,111,170,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,201,181,0,0 // mulps 0xb5c9(%edx),%xmm5
+ .byte 15,89,170,249,178,0,0 // mulps 0xb2f9(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,217,181,0,0 // pand 0xb5d9(%edx),%xmm4
+ .byte 102,15,219,162,9,179,0,0 // pand 0xb309(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,233,181,0,0 // mulps 0xb5e9(%edx),%xmm4
+ .byte 15,89,162,25,179,0,0 // mulps 0xb319(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66949,21 +66150,21 @@ _sk_gather_4444_sse2:
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,219,179,0,0 // movdqa 0xb3db(%ecx),%xmm0
+ .byte 102,15,111,129,11,177,0,0 // movdqa 0xb10b(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,235,179,0,0 // mulps 0xb3eb(%ecx),%xmm0
- .byte 102,15,111,137,251,179,0,0 // movdqa 0xb3fb(%ecx),%xmm1
+ .byte 15,89,129,27,177,0,0 // mulps 0xb11b(%ecx),%xmm0
+ .byte 102,15,111,137,43,177,0,0 // movdqa 0xb12b(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,11,180,0,0 // mulps 0xb40b(%ecx),%xmm1
- .byte 102,15,111,145,27,180,0,0 // movdqa 0xb41b(%ecx),%xmm2
+ .byte 15,89,137,59,177,0,0 // mulps 0xb13b(%ecx),%xmm1
+ .byte 102,15,111,145,75,177,0,0 // movdqa 0xb14b(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,43,180,0,0 // mulps 0xb42b(%ecx),%xmm2
- .byte 102,15,219,153,59,180,0,0 // pand 0xb43b(%ecx),%xmm3
+ .byte 15,89,145,91,177,0,0 // mulps 0xb15b(%ecx),%xmm2
+ .byte 102,15,219,153,107,177,0,0 // pand 0xb16b(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,75,180,0,0 // mulps 0xb44b(%ecx),%xmm3
+ .byte 15,89,153,123,177,0,0 // mulps 0xb17b(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -66988,9 +66189,9 @@ _sk_store_4444_sse2:
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,58,175,0,0 // movaps 0xaf3a(%eax),%xmm5
+ .byte 15,40,168,106,172,0,0 // movaps 0xac6a(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,218,179,0,0 // movaps 0xb3da(%eax),%xmm6
+ .byte 15,40,176,10,177,0,0 // movaps 0xb10a(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,12 // pslld $0xc,%xmm4
@@ -67092,11 +66293,11 @@ _sk_load_8888_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 505b <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,217,174,0,0 // movdqa 0xaed9(%edx),%xmm2
+ .byte 102,15,111,146,9,172,0,0 // movdqa 0xac09(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,25,176,0,0 // movaps 0xb019(%edx),%xmm4
+ .byte 15,40,162,73,173,0,0 // movaps 0xad49(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67161,11 +66362,11 @@ _sk_load_8888_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 5132 <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,18,174,0,0 // movdqa 0xae12(%edx),%xmm5
+ .byte 102,15,111,170,66,171,0,0 // movdqa 0xab42(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,82,175,0,0 // movaps 0xaf52(%edx),%xmm7
+ .byte 15,40,186,130,172,0,0 // movaps 0xac82(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67260,11 +66461,11 @@ _sk_gather_8888_sse2:
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,159,172,0,0 // movdqa 0xac9f(%ecx),%xmm2
+ .byte 102,15,111,145,207,169,0,0 // movdqa 0xa9cf(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,223,173,0,0 // movaps 0xaddf(%ecx),%xmm4
+ .byte 15,40,161,15,171,0,0 // movaps 0xab0f(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67303,9 +66504,9 @@ _sk_store_8888_sse2:
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,96,171,0,0 // movaps 0xab60(%eax),%xmm5
+ .byte 15,40,168,144,168,0,0 // movaps 0xa890(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,48,172,0,0 // movaps 0xac30(%eax),%xmm6
+ .byte 15,40,176,96,169,0,0 // movaps 0xa960(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 15,87,255 // xorps %xmm7,%xmm7
@@ -67393,11 +66594,11 @@ _sk_load_bgra_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 53fa <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,58,171,0,0 // movdqa 0xab3a(%edx),%xmm0
+ .byte 102,15,111,130,106,168,0,0 // movdqa 0xa86a(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,122,172,0,0 // movaps 0xac7a(%edx),%xmm4
+ .byte 15,40,162,170,169,0,0 // movaps 0xa9aa(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67462,11 +66663,11 @@ _sk_load_bgra_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 54d1 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,115,170,0,0 // movdqa 0xaa73(%edx),%xmm5
+ .byte 102,15,111,170,163,167,0,0 // movdqa 0xa7a3(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,179,171,0,0 // movaps 0xabb3(%edx),%xmm7
+ .byte 15,40,186,227,168,0,0 // movaps 0xa8e3(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67561,11 +66762,11 @@ _sk_gather_bgra_sse2:
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,0,169,0,0 // movdqa 0xa900(%ecx),%xmm0
+ .byte 102,15,111,129,48,166,0,0 // movdqa 0xa630(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,64,170,0,0 // movaps 0xaa40(%ecx),%xmm4
+ .byte 15,40,161,112,167,0,0 // movaps 0xa770(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67605,9 +66806,9 @@ _sk_store_bgra_sse2:
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,40,168,193,167,0,0 // movaps 0xa7c1(%eax),%xmm5
+ .byte 15,40,168,241,164,0,0 // movaps 0xa4f1(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,145,168,0,0 // movaps 0xa891(%eax),%xmm6
+ .byte 15,40,176,193,165,0,0 // movaps 0xa5c1(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 15,87,255 // xorps %xmm7,%xmm7
@@ -67722,11 +66923,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,139,171,0,0 // movdqa 0xab8b(%edx),%xmm5
+ .byte 102,15,111,170,187,168,0,0 // movdqa 0xa8bb(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,155,171,0,0 // pand 0xab9b(%edx),%xmm1
- .byte 102,15,111,130,171,171,0,0 // movdqa 0xabab(%edx),%xmm0
+ .byte 102,15,219,138,203,168,0,0 // pand 0xa8cb(%edx),%xmm1
+ .byte 102,15,111,130,219,168,0,0 // movdqa 0xa8db(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -67738,7 +66939,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,155,171,0,0 // movdqa 0xab9b(%edx),%xmm3
+ .byte 102,15,111,154,203,168,0,0 // movdqa 0xa8cb(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -67751,7 +66952,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,171,171,0,0 // movdqa 0xabab(%edx),%xmm2
+ .byte 102,15,111,146,219,168,0,0 // movdqa 0xa8db(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -67766,7 +66967,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,187,171,0,0 // movdqa 0xabbb(%edx),%xmm3
+ .byte 102,15,111,154,235,168,0,0 // movdqa 0xa8eb(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -67855,18 +67056,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,110,169,0,0 // movdqa 0xa96e(%edx),%xmm7
+ .byte 102,15,111,186,158,166,0,0 // movdqa 0xa69e(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,126,169,0,0 // movdqa 0xa97e(%edx),%xmm3
+ .byte 102,15,111,154,174,166,0,0 // movdqa 0xa6ae(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,142,169,0,0 // movdqa 0xa98e(%edx),%xmm4
+ .byte 102,15,111,162,190,166,0,0 // movdqa 0xa6be(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,158,169,0,0 // movdqa 0xa99e(%edx),%xmm2
+ .byte 102,15,111,146,206,166,0,0 // movdqa 0xa6ce(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -68012,11 +67213,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,210,166,0,0 // movdqa 0xa6d2(%ecx),%xmm6
+ .byte 102,15,111,177,2,164,0,0 // movdqa 0xa402(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,226,166,0,0 // pand 0xa6e2(%ecx),%xmm1
- .byte 102,15,111,129,242,166,0,0 // movdqa 0xa6f2(%ecx),%xmm0
+ .byte 102,15,219,137,18,164,0,0 // pand 0xa412(%ecx),%xmm1
+ .byte 102,15,111,129,34,164,0,0 // movdqa 0xa422(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -68027,7 +67228,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,226,166,0,0 // movdqa 0xa6e2(%ecx),%xmm3
+ .byte 102,15,111,153,18,164,0,0 // movdqa 0xa412(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -68041,7 +67242,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,242,166,0,0 // movdqa 0xa6f2(%ecx),%xmm2
+ .byte 102,15,111,145,34,164,0,0 // movdqa 0xa422(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -68050,12 +67251,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,226,166,0,0 // pand 0xa6e2(%ecx),%xmm7
+ .byte 102,15,219,185,18,164,0,0 // pand 0xa412(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,2,167,0,0 // movdqa 0xa702(%ecx),%xmm4
+ .byte 102,15,111,161,50,164,0,0 // movdqa 0xa432(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -68094,22 +67295,22 @@ _sk_store_f16_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 232,0,0,0,0 // call 5d92 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,78,165,0,0 // movdqa 0xa54e(%eax),%xmm3
+ .byte 102,15,111,152,126,162,0,0 // movdqa 0xa27e(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,126,165,0,0 // movdqa 0xa57e(%eax),%xmm1
+ .byte 102,15,111,136,174,162,0,0 // movdqa 0xa2ae(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,94,165,0,0 // movdqa 0xa55e(%eax),%xmm7
+ .byte 102,15,111,184,142,162,0,0 // movdqa 0xa28e(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,110,165,0,0 // movdqa 0xa56e(%eax),%xmm5
+ .byte 102,15,111,168,158,162,0,0 // movdqa 0xa29e(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,254,161,0,0 // movdqa 0xa1fe(%eax),%xmm0
+ .byte 102,15,111,128,46,159,0,0 // movdqa 0x9f2e(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -68243,7 +67444,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,17,161,0,0 // movaps 0xa111(%edx),%xmm4
+ .byte 15,40,162,65,158,0,0 // movaps 0x9e41(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68347,7 +67548,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,170,159,0,0 // movaps 0x9faa(%edx),%xmm5
+ .byte 15,40,170,218,156,0,0 // movaps 0x9cda(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68373,7 +67574,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,42,157,0,0 // movaps 0x9d2a(%edx),%xmm3
+ .byte 15,40,154,90,154,0,0 // movaps 0x9a5a(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -68416,9 +67617,9 @@ _sk_store_u16_be_sse2:
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,207,155,0,0 // movaps 0x9bcf(%eax),%xmm5
+ .byte 15,40,168,255,152,0,0 // movaps 0x98ff(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,255,160,0,0 // movaps 0xa0ff(%eax),%xmm6
+ .byte 15,40,176,47,158,0,0 // movaps 0x9e2f(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -68717,7 +67918,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,112,152,0,0 // andps 0x9870(%eax),%xmm5
+ .byte 15,84,168,160,149,0,0 // andps 0x95a0(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -68749,7 +67950,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,30,152,0,0 // andps 0x981e(%eax),%xmm5
+ .byte 15,84,168,78,149,0,0 // andps 0x954e(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -68779,13 +67980,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,172,159,0,0 // mulss 0x9fac(%ecx),%xmm5
+ .byte 243,15,89,169,220,156,0,0 // mulss 0x9cdc(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,204,151,0,0 // andps 0x97cc(%ecx),%xmm5
+ .byte 15,84,169,252,148,0,0 // andps 0x94fc(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -68820,13 +68021,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,56,159,0,0 // mulss 0x9f38(%ecx),%xmm5
+ .byte 243,15,89,169,104,156,0,0 // mulss 0x9c68(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,88,151,0,0 // andps 0x9758(%ecx),%xmm5
+ .byte 15,84,169,136,148,0,0 // andps 0x9488(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -68857,7 +68058,7 @@ _sk_clamp_x_1_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,228,150,0,0 // minps 0x96e4(%eax),%xmm4
+ .byte 15,93,160,20,148,0,0 // minps 0x9414(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -68882,7 +68083,7 @@ _sk_repeat_x_1_sse2:
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,180,150,0,0 // movaps 0x96b4(%eax),%xmm7
+ .byte 15,40,184,228,147,0,0 // movaps 0x93e4(%eax),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -68908,14 +68109,14 @@ _sk_mirror_x_1_sse2:
.byte 131,236,8 // sub $0x8,%esp
.byte 232,0,0,0,0 // call 6786 <_sk_mirror_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,160,218,150,0,0 // movaps 0x96da(%eax),%xmm4
+ .byte 15,40,160,10,148,0,0 // movaps 0x940a(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,90,150,0,0 // movaps 0x965a(%eax),%xmm5
+ .byte 15,40,168,138,147,0,0 // movaps 0x938a(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,106,150,0,0 // movaps 0x966a(%eax),%xmm7
+ .byte 15,40,184,154,147,0,0 // movaps 0x939a(%eax),%xmm7
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -68948,10 +68149,10 @@ _sk_luminance_to_alpha_sse2:
.byte 232,0,0,0,0 // call 67f0 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,64,155,0,0 // mulps 0x9b40(%eax),%xmm0
- .byte 15,89,136,80,155,0,0 // mulps 0x9b50(%eax),%xmm1
+ .byte 15,89,128,112,152,0,0 // mulps 0x9870(%eax),%xmm0
+ .byte 15,89,136,128,152,0,0 // mulps 0x9880(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,96,155,0,0 // mulps 0x9b60(%eax),%xmm3
+ .byte 15,89,152,144,152,0,0 // mulps 0x9890(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69347,12 +68548,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,218,150,0,0 // movdqa 0x96da(%edx),%xmm2
+ .byte 102,15,111,146,10,148,0,0 // movdqa 0x940a(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,154,148,0,0 // por 0x949a(%edx),%xmm2
+ .byte 102,15,235,146,202,145,0,0 // por 0x91ca(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,234,150,0,0 // por 0x96ea(%edx),%xmm1
- .byte 15,88,138,250,150,0,0 // addps 0x96fa(%edx),%xmm1
+ .byte 102,15,235,138,26,148,0,0 // por 0x941a(%edx),%xmm1
+ .byte 15,88,138,42,148,0,0 // addps 0x942a(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -69645,30 +68846,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,26,147,0,0 // movaps 0x931a(%eax),%xmm0
+ .byte 15,40,128,74,144,0,0 // movaps 0x904a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,42,147,0,0 // addps 0x932a(%eax),%xmm0
+ .byte 15,88,128,90,144,0,0 // addps 0x905a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,58,147,0,0 // addps 0x933a(%eax),%xmm0
+ .byte 15,88,128,106,144,0,0 // addps 0x906a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,74,147,0,0 // addps 0x934a(%eax),%xmm0
+ .byte 15,88,128,122,144,0,0 // addps 0x907a(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,90,147,0,0 // movaps 0x935a(%eax),%xmm6
+ .byte 15,40,176,138,144,0,0 // movaps 0x908a(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,106,141,0,0 // movaps 0x8d6a(%eax),%xmm0
+ .byte 15,40,128,154,138,0,0 // movaps 0x8a9a(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,122,141,0,0 // movaps 0x8d7a(%eax),%xmm5
+ .byte 15,40,168,170,138,0,0 // movaps 0x8aaa(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -69736,8 +68937,8 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,77,146,0,0 // mulps 0x924d(%edx),%xmm4
- .byte 15,89,130,93,146,0,0 // mulps 0x925d(%edx),%xmm0
+ .byte 15,89,162,125,143,0,0 // mulps 0x8f7d(%edx),%xmm4
+ .byte 15,89,130,141,143,0,0 // mulps 0x8f8d(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -69746,7 +68947,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,77,140,0,0 // mulps 0x8c4d(%edx),%xmm0
+ .byte 15,89,130,125,137,0,0 // mulps 0x897d(%edx),%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -69782,18 +68983,18 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,194,145,0,0 // mulps 0x91c2(%edx),%xmm4
- .byte 15,89,130,210,145,0,0 // mulps 0x91d2(%edx),%xmm0
+ .byte 15,89,162,242,142,0,0 // mulps 0x8ef2(%edx),%xmm4
+ .byte 15,89,130,2,143,0,0 // mulps 0x8f02(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,81,197 // sqrtps %xmm5,%xmm0
- .byte 15,87,162,194,144,0,0 // xorps 0x90c2(%edx),%xmm4
+ .byte 15,87,162,242,141,0,0 // xorps 0x8df2(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,194,139,0,0 // mulps 0x8bc2(%edx),%xmm0
+ .byte 15,89,130,242,136,0,0 // mulps 0x88f2(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -69820,7 +69021,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,86,145,0,0 // mulps 0x9156(%ecx),%xmm5
+ .byte 15,89,169,134,142,0,0 // mulps 0x8e86(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -69828,7 +69029,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,86,144,0,0 // xorps 0x9056(%ecx),%xmm0
+ .byte 15,87,129,134,141,0,0 // xorps 0x8d86(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -69907,14 +69108,14 @@ _sk_save_xy_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 232,0,0,0,0 // call 7373 <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,109,138,0,0 // movaps 0x8a6d(%eax),%xmm4
+ .byte 15,40,160,157,135,0,0 // movaps 0x879d(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,125,138,0,0 // movaps 0x8a7d(%eax),%xmm2
+ .byte 15,40,144,173,135,0,0 // movaps 0x87ad(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -69996,8 +69197,8 @@ _sk_bilinear_nx_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,165,143,0,0 // addps 0x8fa5(%eax),%xmm0
- .byte 15,40,168,149,137,0,0 // movaps 0x8995(%eax),%xmm5
+ .byte 15,88,128,213,140,0,0 // addps 0x8cd5(%eax),%xmm0
+ .byte 15,40,168,197,134,0,0 // movaps 0x86c5(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70025,7 +69226,7 @@ _sk_bilinear_px_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,63,137,0,0 // addps 0x893f(%eax),%xmm0
+ .byte 15,88,128,111,134,0,0 // addps 0x866f(%eax),%xmm0
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70052,8 +69253,8 @@ _sk_bilinear_ny_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,35,143,0,0 // addps 0x8f23(%eax),%xmm1
- .byte 15,40,168,19,137,0,0 // movaps 0x8913(%eax),%xmm5
+ .byte 15,88,136,83,140,0,0 // addps 0x8c53(%eax),%xmm1
+ .byte 15,40,168,67,134,0,0 // movaps 0x8643(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70081,7 +69282,7 @@ _sk_bilinear_py_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,188,136,0,0 // addps 0x88bc(%eax),%xmm1
+ .byte 15,88,136,236,133,0,0 // addps 0x85ec(%eax),%xmm1
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70108,13 +69309,13 @@ _sk_bicubic_n3x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,175,142,0,0 // addps 0x8eaf(%eax),%xmm0
- .byte 15,40,168,143,136,0,0 // movaps 0x888f(%eax),%xmm5
+ .byte 15,88,128,223,139,0,0 // addps 0x8bdf(%eax),%xmm0
+ .byte 15,40,168,191,133,0,0 // movaps 0x85bf(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,191,142,0,0 // mulps 0x8ebf(%eax),%xmm5
- .byte 15,88,168,127,138,0,0 // addps 0x8a7f(%eax),%xmm5
+ .byte 15,89,168,239,139,0,0 // mulps 0x8bef(%eax),%xmm5
+ .byte 15,88,168,175,135,0,0 // addps 0x87af(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70142,16 +69343,16 @@ _sk_bicubic_n1x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,66,142,0,0 // addps 0x8e42(%eax),%xmm0
- .byte 15,40,168,50,136,0,0 // movaps 0x8832(%eax),%xmm5
+ .byte 15,88,128,114,139,0,0 // addps 0x8b72(%eax),%xmm0
+ .byte 15,40,168,98,133,0,0 // movaps 0x8562(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,114,142,0,0 // movaps 0x8e72(%eax),%xmm4
+ .byte 15,40,160,162,139,0,0 // movaps 0x8ba2(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,130,142,0,0 // addps 0x8e82(%eax),%xmm4
+ .byte 15,88,160,178,139,0,0 // addps 0x8bb2(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,34,136,0,0 // addps 0x8822(%eax),%xmm4
+ .byte 15,88,160,82,133,0,0 // addps 0x8552(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,146,142,0,0 // addps 0x8e92(%eax),%xmm4
+ .byte 15,88,160,194,139,0,0 // addps 0x8bc2(%eax),%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70176,17 +69377,17 @@ _sk_bicubic_p1x_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,183,135,0,0 // movaps 0x87b7(%eax),%xmm4
+ .byte 15,40,160,231,132,0,0 // movaps 0x84e7(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,7,142,0,0 // movaps 0x8e07(%eax),%xmm6
+ .byte 15,40,176,55,139,0,0 // movaps 0x8b37(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,23,142,0,0 // addps 0x8e17(%eax),%xmm6
+ .byte 15,88,176,71,139,0,0 // addps 0x8b47(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,39,142,0,0 // addps 0x8e27(%eax),%xmm6
+ .byte 15,88,176,87,139,0,0 // addps 0x8b57(%eax),%xmm6
.byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70213,11 +69414,11 @@ _sk_bicubic_p3x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,183,141,0,0 // addps 0x8db7(%eax),%xmm0
+ .byte 15,88,128,231,138,0,0 // addps 0x8ae7(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,151,141,0,0 // mulps 0x8d97(%eax),%xmm4
- .byte 15,88,160,87,137,0,0 // addps 0x8957(%eax),%xmm4
+ .byte 15,89,160,199,138,0,0 // mulps 0x8ac7(%eax),%xmm4
+ .byte 15,88,160,135,134,0,0 // addps 0x8687(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70245,13 +69446,13 @@ _sk_bicubic_n3y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,52,141,0,0 // addps 0x8d34(%eax),%xmm1
- .byte 15,40,168,20,135,0,0 // movaps 0x8714(%eax),%xmm5
+ .byte 15,88,136,100,138,0,0 // addps 0x8a64(%eax),%xmm1
+ .byte 15,40,168,68,132,0,0 // movaps 0x8444(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,68,141,0,0 // mulps 0x8d44(%eax),%xmm5
- .byte 15,88,168,4,137,0,0 // addps 0x8904(%eax),%xmm5
+ .byte 15,89,168,116,138,0,0 // mulps 0x8a74(%eax),%xmm5
+ .byte 15,88,168,52,134,0,0 // addps 0x8634(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70279,16 +69480,16 @@ _sk_bicubic_n1y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,198,140,0,0 // addps 0x8cc6(%eax),%xmm1
- .byte 15,40,168,182,134,0,0 // movaps 0x86b6(%eax),%xmm5
+ .byte 15,88,136,246,137,0,0 // addps 0x89f6(%eax),%xmm1
+ .byte 15,40,168,230,131,0,0 // movaps 0x83e6(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,246,140,0,0 // movaps 0x8cf6(%eax),%xmm4
+ .byte 15,40,160,38,138,0,0 // movaps 0x8a26(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,6,141,0,0 // addps 0x8d06(%eax),%xmm4
+ .byte 15,88,160,54,138,0,0 // addps 0x8a36(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,166,134,0,0 // addps 0x86a6(%eax),%xmm4
+ .byte 15,88,160,214,131,0,0 // addps 0x83d6(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,22,141,0,0 // addps 0x8d16(%eax),%xmm4
+ .byte 15,88,160,70,138,0,0 // addps 0x8a46(%eax),%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70313,17 +69514,17 @@ _sk_bicubic_p1y_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,58,134,0,0 // movaps 0x863a(%eax),%xmm4
+ .byte 15,40,160,106,131,0,0 // movaps 0x836a(%eax),%xmm4
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,138,140,0,0 // movaps 0x8c8a(%eax),%xmm6
+ .byte 15,40,176,186,137,0,0 // movaps 0x89ba(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,154,140,0,0 // addps 0x8c9a(%eax),%xmm6
+ .byte 15,88,176,202,137,0,0 // addps 0x89ca(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,170,140,0,0 // addps 0x8caa(%eax),%xmm6
+ .byte 15,88,176,218,137,0,0 // addps 0x89da(%eax),%xmm6
.byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70350,11 +69551,11 @@ _sk_bicubic_p3y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,57,140,0,0 // addps 0x8c39(%eax),%xmm1
+ .byte 15,88,136,105,137,0,0 // addps 0x8969(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,25,140,0,0 // mulps 0x8c19(%eax),%xmm4
- .byte 15,88,160,217,135,0,0 // addps 0x87d9(%eax),%xmm4
+ .byte 15,89,160,73,137,0,0 // mulps 0x8949(%eax),%xmm4
+ .byte 15,88,160,9,133,0,0 // addps 0x8509(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70505,7 +69706,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,131,138,0,0 // movdqa 0x8a83(%edx),%xmm4
+ .byte 102,15,111,162,179,135,0,0 // movdqa 0x87b3(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -70545,7 +69746,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,67,132,0,0 // movdqa 0x8443(%edx),%xmm0
+ .byte 102,15,111,130,115,129,0,0 // movdqa 0x8173(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -70562,7 +69763,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,115,138,0,0 // movaps 0x8a73(%edx),%xmm0
+ .byte 15,40,130,163,135,0,0 // movaps 0x87a3(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -71193,7 +70394,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm4
+ .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -71235,7 +70436,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,183,120,0,0 // paddd 0x78b7(%ecx),%xmm1
+ .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -71250,7 +70451,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,231,126,0,0 // movaps 0x7ee7(%ecx),%xmm7
+ .byte 15,40,185,23,124,0,0 // movaps 0x7c17(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -71271,7 +70472,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm4
+ .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -71307,7 +70508,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,183,120,0,0 // paddd 0x78b7(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -71391,7 +70592,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,183,120,0,0 // paddd 0x78b7(%ecx),%xmm1
+ .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -71409,7 +70610,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm2
+ .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -71445,7 +70646,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,183,120,0,0 // paddd 0x78b7(%ecx),%xmm5
+ .byte 102,15,254,169,231,117,0,0 // paddd 0x75e7(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -71505,7 +70706,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm3
+ .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -71544,7 +70745,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,183,120,0,0 // paddd 0x78b7(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -71596,7 +70797,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,183,120,0,0 // movdqa 0x78b7(%ecx),%xmm1
+ .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -71630,7 +70831,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm3
+ .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -71687,7 +70888,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm1
+ .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -71724,7 +70925,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,183,120,0,0 // paddd 0x78b7(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -71792,7 +70993,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm0
+ .byte 102,15,111,129,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -71831,7 +71032,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,183,120,0,0 // paddd 0x78b7(%ecx),%xmm2
+ .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -71883,7 +71084,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,183,120,0,0 // movdqa 0x78b7(%ecx),%xmm1
+ .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -71918,7 +71119,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm5
+ .byte 102,15,111,169,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -71974,7 +71175,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm2
+ .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -72010,7 +71211,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,183,120,0,0 // paddd 0x78b7(%ecx),%xmm7
+ .byte 102,15,254,185,231,117,0,0 // paddd 0x75e7(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -72060,7 +71261,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm2
+ .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -72099,7 +71300,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,183,120,0,0 // paddd 0x78b7(%ecx),%xmm2
+ .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72153,7 +71354,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,183,120,0,0 // paddd 0x78b7(%ecx),%xmm3
+ .byte 102,15,254,153,231,117,0,0 // paddd 0x75e7(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -72186,7 +71387,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,247,126,0,0 // movdqa 0x7ef7(%ecx),%xmm1
+ .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -72226,7 +71427,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,183,120,0,0 // paddd 0x78b7(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -72280,7 +71481,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,183,120,0,0 // paddd 0x78b7(%ecx),%xmm2
+ .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72349,7 +71550,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,119,120,0,0 // movaps 0x7877(%ecx),%xmm3
+ .byte 15,40,153,167,117,0,0 // movaps 0x75a7(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -72370,15 +71571,15 @@ _sk_gauss_a_to_rgba_sse2:
.byte 232,0,0,0,0 // call 99ce <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,178,106,0,0 // movaps 0x6ab2(%eax),%xmm0
+ .byte 15,40,128,226,103,0,0 // movaps 0x67e2(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,194,106,0,0 // addps 0x6ac2(%eax),%xmm0
+ .byte 15,88,128,242,103,0,0 // addps 0x67f2(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,210,106,0,0 // addps 0x6ad2(%eax),%xmm0
+ .byte 15,88,128,2,104,0,0 // addps 0x6802(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,226,106,0,0 // addps 0x6ae2(%eax),%xmm0
+ .byte 15,88,128,18,104,0,0 // addps 0x6812(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,242,106,0,0 // addps 0x6af2(%eax),%xmm0
+ .byte 15,88,128,34,104,0,0 // addps 0x6822(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -72390,190 +71591,6 @@ _sk_gauss_a_to_rgba_sse2:
.byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
-
-HIDDEN _sk_bilerp_clamp_8888_sse2
-.globl _sk_bilerp_clamp_8888_sse2
-FUNCTION(_sk_bilerp_clamp_8888_sse2)
-_sk_bilerp_clamp_8888_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,12,1,0,0 // sub $0x10c,%esp
- .byte 232,0,0,0,0 // call 9a2c <_sk_bilerp_clamp_8888_sse2+0x11>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,178,176,107,0,0 // mov 0x6bb0(%edx),%esi
- .byte 139,14 // mov (%esi),%ecx
- .byte 137,77,240 // mov %ecx,-0x10(%ebp)
- .byte 139,24 // mov (%eax),%ebx
- .byte 15,40,154,180,99,0,0 // movaps 0x63b4(%edx),%xmm3
- .byte 15,41,133,40,255,255,255 // movaps %xmm0,-0xd8(%ebp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 15,40,170,196,99,0,0 // movaps 0x63c4(%edx),%xmm5
- .byte 15,84,213 // andps %xmm5,%xmm2
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,41,77,136 // movaps %xmm1,-0x78(%ebp)
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,205 // andps %xmm5,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 141,77,232 // lea -0x18(%ebp),%ecx
- .byte 199,65,4,0,0,0,63 // movl $0x3f000000,0x4(%ecx)
- .byte 199,1,0,0,0,191 // movl $0xbf000000,(%ecx)
- .byte 243,15,16,75,8 // movss 0x8(%ebx),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,127,141,72,255,255,255 // movdqa %xmm1,-0xb8(%ebp)
- .byte 243,15,16,75,12 // movss 0xc(%ebx),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,41,165,56,255,255,255 // movaps %xmm4,-0xc8(%ebp)
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
- .byte 15,41,93,152 // movaps %xmm3,-0x68(%ebp)
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
- .byte 139,59 // mov (%ebx),%edi
- .byte 102,15,110,67,4 // movd 0x4(%ebx),%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 141,93,240 // lea -0x10(%ebp),%ebx
- .byte 243,15,16,170,168,107,0,0 // movss 0x6ba8(%edx),%xmm5
- .byte 15,40,138,132,100,0,0 // movaps 0x6484(%edx),%xmm1
- .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
- .byte 15,40,138,196,101,0,0 // movaps 0x65c4(%edx),%xmm1
- .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 235,4 // jmp 9b32 <_sk_bilerp_clamp_8888_sse2+0x117>
- .byte 243,15,16,41 // movss (%ecx),%xmm5
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,46,236 // ucomiss %xmm4,%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,88,109,136 // addps -0x78(%ebp),%xmm5
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,229 // maxps %xmm5,%xmm4
- .byte 15,40,109,152 // movaps -0x68(%ebp),%xmm5
- .byte 15,41,109,216 // movaps %xmm5,-0x28(%ebp)
- .byte 119,8 // ja 9b58 <_sk_bilerp_clamp_8888_sse2+0x13d>
- .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5
- .byte 15,41,109,216 // movaps %xmm5,-0x28(%ebp)
- .byte 15,93,101,168 // minps -0x58(%ebp),%xmm4
- .byte 243,15,91,244 // cvttps2dq %xmm4,%xmm6
- .byte 102,15,111,101,184 // movdqa -0x48(%ebp),%xmm4
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,244,238 // pmuludq %xmm6,%xmm5
- .byte 102,15,112,253,232 // pshufd $0xe8,%xmm5,%xmm7
- .byte 102,15,112,238,245 // pshufd $0xf5,%xmm6,%xmm5
- .byte 102,15,112,228,245 // pshufd $0xf5,%xmm4,%xmm4
- .byte 102,15,244,229 // pmuludq %xmm5,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,98,252 // punpckldq %xmm4,%xmm7
- .byte 102,15,127,189,24,255,255,255 // movdqa %xmm7,-0xe8(%ebp)
- .byte 49,210 // xor %edx,%edx
- .byte 15,41,157,8,255,255,255 // movaps %xmm3,-0xf8(%ebp)
- .byte 102,15,127,133,248,254,255,255 // movdqa %xmm0,-0x108(%ebp)
- .byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
- .byte 243,15,16,68,21,232 // movss -0x18(%ebp,%edx,1),%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,141,40,255,255,255 // addps -0xd8(%ebp),%xmm1
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,93,165,72,255,255,255 // minps -0xb8(%ebp),%xmm4
- .byte 243,15,91,228 // cvttps2dq %xmm4,%xmm4
- .byte 102,15,254,165,24,255,255,255 // paddd -0xe8(%ebp),%xmm4
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,15,112,204,231 // pshufd $0xe7,%xmm4,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,110,12,135 // movd (%edi,%eax,4),%xmm1
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 102,15,110,60,135 // movd (%edi,%eax,4),%xmm7
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,112,228,229 // pshufd $0xe5,%xmm4,%xmm4
- .byte 102,15,110,52,135 // movd (%edi,%eax,4),%xmm6
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,110,36,135 // movd (%edi,%eax,4),%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 15,46,197 // ucomiss %xmm5,%xmm0
- .byte 102,15,98,249 // punpckldq %xmm1,%xmm7
- .byte 102,15,98,244 // punpckldq %xmm4,%xmm6
- .byte 102,15,108,247 // punpcklqdq %xmm7,%xmm6
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,111,173,88,255,255,255 // movdqa -0xa8(%ebp),%xmm5
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,114,208,8 // psrld $0x8,%xmm0
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 15,91,224 // cvtdq2ps %xmm0,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 15,91,232 // cvtdq2ps %xmm0,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 102,15,114,214,24 // psrld $0x18,%xmm6
- .byte 15,91,222 // cvtdq2ps %xmm6,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,40,181,56,255,255,255 // movaps -0xc8(%ebp),%xmm6
- .byte 119,7 // ja 9c7b <_sk_bilerp_clamp_8888_sse2+0x260>
- .byte 15,40,181,120,255,255,255 // movaps -0x88(%ebp),%xmm6
- .byte 15,89,117,216 // mulps -0x28(%ebp),%xmm6
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,40,141,232,254,255,255 // movaps -0x118(%ebp),%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,157,8,255,255,255 // movaps -0xf8(%ebp),%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 131,194,4 // add $0x4,%edx
- .byte 131,250,8 // cmp $0x8,%edx
- .byte 15,133,219,254,255,255 // jne 9b93 <_sk_bilerp_clamp_8888_sse2+0x178>
- .byte 131,193,4 // add $0x4,%ecx
- .byte 57,217 // cmp %ebx,%ecx
- .byte 15,133,107,254,255,255 // jne 9b2e <_sk_bilerp_clamp_8888_sse2+0x113>
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,193 // mov %eax,%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,16 // add $0x10,%esp
- .byte 139,6 // mov (%esi),%eax
- .byte 59,69,240 // cmp -0x10(%ebp),%eax
- .byte 117,11 // jne 9cea <_sk_bilerp_clamp_8888_sse2+0x2cf>
- .byte 129,196,12,1,0,0 // add $0x10c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 232,17,99,255,255 // call 0 <_sk_start_pipeline_sse2>
.byte 144 // nop
HIDDEN _sk_start_pipeline_sse2_lowp
@@ -72588,7 +71605,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 9dc6 <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 9af2 <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -72602,7 +71619,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 9d78 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 9aa4 <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -72624,13 +71641,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 9d2e <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 9a5a <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 9dbc <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 9ae8 <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -72648,7 +71665,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 9d1c <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 9a48 <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -72671,7 +71688,7 @@ _sk_seed_shader_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ddc <_sk_seed_shader_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9b08 <_sk_seed_shader_sse2_lowp+0xd>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
@@ -72692,7 +71709,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,210 // movd %edx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,145,4,96,0,0 // addps 0x6004(%ecx),%xmm2
+ .byte 15,88,145,8,96,0,0 // addps 0x6008(%ecx),%xmm2
.byte 141,78,8 // lea 0x8(%esi),%ecx
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
@@ -73022,7 +72039,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call a1fb <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9f27 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73041,7 +72058,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,213,98,0,0 // movaps 0x62d5(%eax),%xmm3
+ .byte 15,40,152,217,98,0,0 // movaps 0x62d9(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -73063,7 +72080,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call a266 <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9f92 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73082,7 +72099,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,106,98,0,0 // movaps 0x626a(%eax),%xmm0
+ .byte 15,40,128,110,98,0,0 // movaps 0x626e(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -73103,7 +72120,7 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a2d0 <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ffc <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73112,7 +72129,7 @@ _sk_set_rgb_sse2_lowp:
.byte 243,15,16,150,8,99,0,0 // movss 0x6308(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,0,99,0,0 // movss 0x6300(%esi),%xmm1
+ .byte 243,15,16,142,4,99,0,0 // movss 0x6304(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -73161,12 +72178,12 @@ _sk_clamp_a_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a394 <_sk_clamp_a_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a0c0 <_sk_clamp_a_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 102,15,111,166,76,97,0,0 // movdqa 0x614c(%esi),%xmm4
+ .byte 102,15,111,166,80,97,0,0 // movdqa 0x6150(%esi),%xmm4
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,239,236 // pxor %xmm4,%xmm5
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -73222,11 +72239,11 @@ _sk_clamp_a_dst_sse2_lowp:
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call a45b <_sk_clamp_a_dst_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call a187 <_sk_clamp_a_dst_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,77,24 // movdqa 0x18(%ebp),%xmm1
- .byte 102,15,111,144,133,96,0,0 // movdqa 0x6085(%eax),%xmm2
+ .byte 102,15,111,144,137,96,0,0 // movdqa 0x6089(%eax),%xmm2
.byte 102,15,111,249 // movdqa %xmm1,%xmm7
.byte 102,15,239,250 // pxor %xmm2,%xmm7
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73283,7 +72300,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a52a <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a256 <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73292,7 +72309,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,166,95,0,0 // movdqa 0x5fa6(%edx),%xmm7
+ .byte 102,15,111,186,170,95,0,0 // movdqa 0x5faa(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73332,12 +72349,12 @@ _sk_premul_dst_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a5bf <_sk_premul_dst_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call a2eb <_sk_premul_dst_sse2_lowp+0x1a>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,213,236 // pmullw %xmm4,%xmm5
- .byte 102,15,111,176,17,95,0,0 // movdqa 0x5f11(%eax),%xmm6
+ .byte 102,15,111,176,21,95,0,0 // movdqa 0x5f15(%eax),%xmm6
.byte 102,15,253,238 // paddw %xmm6,%xmm5
.byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7
.byte 102,15,213,252 // pmullw %xmm4,%xmm7
@@ -73479,12 +72496,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a74e <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a47a <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,130,93,0,0 // movdqa 0x5d82(%eax),%xmm4
+ .byte 102,15,111,160,134,93,0,0 // movdqa 0x5d86(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73566,11 +72583,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a846 <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call a572 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,138,92,0,0 // movdqa 0x5c8a(%eax),%xmm0
+ .byte 102,15,111,128,142,92,0,0 // movdqa 0x5c8e(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -73628,12 +72645,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a91a <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a646 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,182,91,0,0 // movdqa 0x5bb6(%eax),%xmm7
+ .byte 102,15,111,184,186,91,0,0 // movdqa 0x5bba(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -73686,7 +72703,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a9db <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a707 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73695,7 +72712,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,245,90,0,0 // movdqa 0x5af5(%esi),%xmm7
+ .byte 102,15,111,190,249,90,0,0 // movdqa 0x5af9(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73734,14 +72751,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call aa72 <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a79e <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,94,90,0,0 // movdqa 0x5a5e(%eax),%xmm7
+ .byte 102,15,111,184,98,90,0,0 // movdqa 0x5a62(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -73785,14 +72802,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ab1a <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a846 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,182,89,0,0 // movdqa 0x59b6(%esi),%xmm6
+ .byte 102,15,111,182,186,89,0,0 // movdqa 0x59ba(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73836,11 +72853,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call abbd <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call a8e9 <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,19,89,0,0 // movdqa 0x5913(%eax),%xmm7
+ .byte 102,15,111,184,23,89,0,0 // movdqa 0x5917(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -73892,9 +72909,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call ac79 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call a9a5 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,87,88,0,0 // movdqa 0x5857(%eax),%xmm1
+ .byte 102,15,111,136,91,88,0,0 // movdqa 0x585b(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -73953,7 +72970,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ad49 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call aa75 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73961,7 +72978,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,135,87,0,0 // movdqa 0x5787(%edi),%xmm6
+ .byte 102,15,111,183,139,87,0,0 // movdqa 0x578b(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -74007,12 +73024,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call adfe <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ab2a <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,210,86,0,0 // movdqa 0x56d2(%eax),%xmm7
+ .byte 102,15,111,184,214,86,0,0 // movdqa 0x56d6(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -74055,10 +73072,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ae9a <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call abc6 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,54,86,0,0 // movdqa 0x5636(%eax),%xmm4
+ .byte 102,15,111,160,58,86,0,0 // movdqa 0x563a(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -74128,17 +73145,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call af9b <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call acc7 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,85,85,0,0 // movdqa 0x5555(%eax),%xmm5
+ .byte 102,15,111,168,89,85,0,0 // movdqa 0x5559(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,53,85,0,0 // movdqa 0x5535(%eax),%xmm6
+ .byte 102,15,111,176,57,85,0,0 // movdqa 0x5539(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -74199,14 +73216,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b093 <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call adbf <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,61,84,0,0 // movdqa 0x543d(%eax),%xmm6
+ .byte 102,15,111,176,65,84,0,0 // movdqa 0x5441(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -74264,9 +73281,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call b173 <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call ae9f <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,93,83,0,0 // movdqa 0x535d(%eax),%xmm6
+ .byte 102,15,111,176,97,83,0,0 // movdqa 0x5361(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -74333,7 +73350,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b268 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call af94 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74344,7 +73361,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,120,82,0,0 // movdqa 0x5278(%eax),%xmm7
+ .byte 102,15,111,184,124,82,0,0 // movdqa 0x527c(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74353,7 +73370,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,104,82,0,0 // movdqa 0x5268(%eax),%xmm0
+ .byte 102,15,111,128,108,82,0,0 // movdqa 0x526c(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -74444,7 +73461,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b411 <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b13d <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -74453,7 +73470,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,207,80,0,0 // movdqa 0x50cf(%eax),%xmm7
+ .byte 102,15,111,184,211,80,0,0 // movdqa 0x50d3(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74462,7 +73479,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,191,80,0,0 // movdqa 0x50bf(%eax),%xmm0
+ .byte 102,15,111,128,195,80,0,0 // movdqa 0x50c3(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -74552,7 +73569,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b5af <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b2db <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74563,7 +73580,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,49,79,0,0 // movdqa 0x4f31(%eax),%xmm7
+ .byte 102,15,111,184,53,79,0,0 // movdqa 0x4f35(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74572,11 +73589,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,33,79,0,0 // movdqa 0x4f21(%eax),%xmm0
+ .byte 102,15,111,128,37,79,0,0 // movdqa 0x4f25(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,81,79,0,0 // movdqa 0x4f51(%eax),%xmm0
+ .byte 102,15,111,128,85,79,0,0 // movdqa 0x4f55(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -74665,16 +73682,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b763 <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call b48f <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,109,77,0,0 // movdqa 0x4d6d(%eax),%xmm7
+ .byte 102,15,111,184,113,77,0,0 // movdqa 0x4d71(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,157,77,0,0 // movdqa 0x4d9d(%eax),%xmm6
+ .byte 102,15,111,176,161,77,0,0 // movdqa 0x4da1(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -74735,9 +73752,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call b85d <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call b589 <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,115,76,0,0 // movdqa 0x4c73(%eax),%xmm7
+ .byte 102,15,111,184,119,76,0,0 // movdqa 0x4c77(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -74764,7 +73781,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,131,76,0,0 // movdqa 0x4c83(%eax),%xmm0
+ .byte 102,15,111,128,135,76,0,0 // movdqa 0x4c87(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -74871,10 +73888,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ba7f <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call b7ab <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,81,74,0,0 // movdqa 0x4a51(%eax),%xmm7
+ .byte 102,15,111,184,85,74,0,0 // movdqa 0x4a55(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -74901,7 +73918,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,97,74,0,0 // movdqa 0x4a61(%eax),%xmm2
+ .byte 102,15,111,144,101,74,0,0 // movdqa 0x4a65(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -75031,10 +74048,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bcee <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call ba1a <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja bd14 <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja ba40 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
@@ -75043,14 +74060,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp bd5d <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp bd5d <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp bd5d <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -75067,7 +74084,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,226,71,0,0 // movdqa 0x47e2(%edi),%xmm5
+ .byte 102,15,111,175,230,71,0,0 // movdqa 0x47e6(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -75146,10 +74163,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call be79 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call bba5 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja be9f <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja bbcb <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -75158,14 +74175,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp bee8 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp bee8 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp bee8 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -75182,7 +74199,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,87,70,0,0 // movdqa 0x4657(%edi),%xmm2
+ .byte 102,15,111,151,91,70,0,0 // movdqa 0x465b(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -75276,19 +74293,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call c044 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call bd70 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja c061 <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja bd8d <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp c0be <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp c0be <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75296,7 +74313,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp c0be <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75333,7 +74350,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne c10a <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne be36 <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75365,10 +74382,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c148 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call be74 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c16e <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja be9a <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -75377,14 +74394,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp c1b7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp c1b7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp c1b7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -75401,7 +74418,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,136,67,0,0 // movdqa 0x4388(%edi),%xmm5
+ .byte 102,15,111,175,140,67,0,0 // movdqa 0x438c(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -75481,10 +74498,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c2d5 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call c001 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c2fb <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja c027 <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -75493,14 +74510,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp c344 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp c344 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp c344 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -75517,7 +74534,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,251,65,0,0 // movdqa 0x41fb(%edi),%xmm2
+ .byte 102,15,111,151,255,65,0,0 // movdqa 0x41ff(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -75611,19 +74628,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call c4a0 <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call c1cc <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja c4bd <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja c1e9 <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp c51a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp c51a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75631,7 +74648,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp c51a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75668,7 +74685,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne c566 <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne c292 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75687,7 +74704,7 @@ _sk_gather_8888_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
- .byte 232,0,0,0,0 // call c581 <_sk_gather_8888_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c2ad <_sk_gather_8888_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -75779,7 +74796,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,216 // packssdw %xmm0,%xmm3
- .byte 102,15,111,186,79,63,0,0 // movdqa 0x3f4f(%edx),%xmm7
+ .byte 102,15,111,186,83,63,0,0 // movdqa 0x3f53(%edx),%xmm7
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,212,16 // psrld $0x10,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -75818,7 +74835,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call c77c <_sk_gather_bgra_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c4a8 <_sk_gather_bgra_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -75909,7 +74926,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,218 // packssdw %xmm2,%xmm3
- .byte 102,15,111,162,84,61,0,0 // movdqa 0x3d54(%edx),%xmm4
+ .byte 102,15,111,162,88,61,0,0 // movdqa 0x3d58(%edx),%xmm4
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,215,16 // psrld $0x10,%xmm7
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
@@ -75964,10 +74981,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c9a0 <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call c6cc <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja c9c2 <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja c6ee <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,244,0,0,0 // mov 0xf4(%esi,%ecx,4),%ecx
@@ -75975,14 +74992,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp c9fd <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp c9fd <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp c9fd <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -75990,11 +75007,11 @@ _sk_load_565_sse2_lowp:
.byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,112,59,0,0 // pand 0x3b70(%esi),%xmm7
+ .byte 102,15,219,190,116,59,0,0 // pand 0x3b74(%esi),%xmm7
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,128,59,0,0 // pand 0x3b80(%esi),%xmm1
- .byte 102,15,111,150,144,59,0,0 // movdqa 0x3b90(%esi),%xmm2
+ .byte 102,15,219,142,132,59,0,0 // pand 0x3b84(%esi),%xmm1
+ .byte 102,15,111,150,148,59,0,0 // movdqa 0x3b94(%esi),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -76016,7 +75033,7 @@ _sk_load_565_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,48,59,0,0 // movaps 0x3b30(%esi),%xmm3
+ .byte 15,40,158,52,59,0,0 // movaps 0x3b34(%esi),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
@@ -76062,10 +75079,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cadb <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call c807 <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cafd <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja c829 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -76073,14 +75090,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp cb38 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp cb38 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp cb38 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -76088,11 +75105,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,53,58,0,0 // pand 0x3a35(%edi),%xmm6
+ .byte 102,15,219,183,57,58,0,0 // pand 0x3a39(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,69,58,0,0 // pand 0x3a45(%edi),%xmm5
- .byte 102,15,111,191,85,58,0,0 // movdqa 0x3a55(%edi),%xmm7
+ .byte 102,15,219,175,73,58,0,0 // pand 0x3a49(%edi),%xmm5
+ .byte 102,15,111,191,89,58,0,0 // movdqa 0x3a59(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -76105,7 +75122,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,245,57,0,0 // movaps 0x39f5(%edi),%xmm6
+ .byte 15,40,183,249,57,0,0 // movaps 0x39f9(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -76150,15 +75167,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call cc02 <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call c92e <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,62,57,0,0 // pand 0x393e(%edi),%xmm2
+ .byte 102,15,219,151,66,57,0,0 // pand 0x3942(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,78,57,0,0 // pand 0x394e(%edi),%xmm6
+ .byte 102,15,219,183,82,57,0,0 // pand 0x3952(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -76177,19 +75194,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja cc7a <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja c9a6 <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp ccb5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp ccb5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp ccb5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -76265,7 +75282,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,244,242 // pmuludq %xmm2,%xmm6
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 232,0,0,0,0 // call cd88 <_sk_gather_565_sse2_lowp+0x78>
+ .byte 232,0,0,0,0 // call cab4 <_sk_gather_565_sse2_lowp+0x78>
.byte 89 // pop %ecx
.byte 139,50 // mov (%edx),%esi
.byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
@@ -76326,11 +75343,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,198 // punpcklqdq %xmm6,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,219,169,136,55,0,0 // pand 0x3788(%ecx),%xmm5
+ .byte 102,15,219,169,140,55,0,0 // pand 0x378c(%ecx),%xmm5
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,137,152,55,0,0 // pand 0x3798(%ecx),%xmm1
- .byte 102,15,111,145,168,55,0,0 // movdqa 0x37a8(%ecx),%xmm2
+ .byte 102,15,219,137,156,55,0,0 // pand 0x379c(%ecx),%xmm1
+ .byte 102,15,111,145,172,55,0,0 // movdqa 0x37ac(%ecx),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,197 // por %xmm5,%xmm0
@@ -76352,7 +75369,7 @@ _sk_gather_565_sse2_lowp:
.byte 137,116,36,8 // mov %esi,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,153,72,55,0,0 // movaps 0x3748(%ecx),%xmm3
+ .byte 15,40,153,76,55,0,0 // movaps 0x374c(%ecx),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,108 // add $0x6c,%esp
.byte 94 // pop %esi
@@ -76385,10 +75402,10 @@ _sk_load_4444_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cf42 <_sk_load_4444_sse2_lowp+0x37>
+ .byte 232,0,0,0,0 // call cc6e <_sk_load_4444_sse2_lowp+0x37>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cf64 <_sk_load_4444_sse2_lowp+0x59>
+ .byte 119,28 // ja cc90 <_sk_load_4444_sse2_lowp+0x59>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,250,0,0,0 // mov 0xfa(%edi,%ecx,4),%ecx
@@ -76396,14 +75413,14 @@ _sk_load_4444_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp cf9f <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,59 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp cf9f <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,52 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,4,115 // movss (%ebx,%esi,2),%xmm0
.byte 243,15,16,224 // movss %xmm0,%xmm4
- .byte 235,30 // jmp cf9f <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,30 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -76413,7 +75430,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,135,30,54,0,0 // movdqa 0x361e(%edi),%xmm0
+ .byte 102,15,111,135,34,54,0,0 // movdqa 0x3622(%edi),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -76488,10 +75505,10 @@ _sk_load_4444_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d087 <_sk_load_4444_dst_sse2_lowp+0x2f>
+ .byte 232,0,0,0,0 // call cdb3 <_sk_load_4444_dst_sse2_lowp+0x2f>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d0a9 <_sk_load_4444_dst_sse2_lowp+0x51>
+ .byte 119,28 // ja cdd5 <_sk_load_4444_dst_sse2_lowp+0x51>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,253,0,0,0 // mov 0xfd(%edi,%ecx,4),%ecx
@@ -76499,14 +75516,14 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,249 // movd %ecx,%xmm7
- .byte 235,59 // jmp d0e4 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,59 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 243,15,111,60,115 // movdqu (%ebx,%esi,2),%xmm7
- .byte 235,52 // jmp d0e4 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,52 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,253 // movss %xmm5,%xmm7
- .byte 235,30 // jmp d0e4 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,30 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7
.byte 102,15,196,124,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7
@@ -76516,7 +75533,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,159,217,52,0,0 // movdqa 0x34d9(%edi),%xmm3
+ .byte 102,15,111,159,221,52,0,0 // movdqa 0x34dd(%edi),%xmm3
.byte 102,15,219,243 // pand %xmm3,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,113,212,4 // psrlw $0x4,%xmm4
@@ -76580,16 +75597,16 @@ _sk_store_4444_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 232,0,0,0,0 // call d1b2 <_sk_store_4444_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call cede <_sk_store_4444_sse2_lowp+0x12>
.byte 94 // pop %esi
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,219,158,190,51,0,0 // pand 0x33be(%esi),%xmm3
+ .byte 102,15,219,158,194,51,0,0 // pand 0x33c2(%esi),%xmm3
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,219,182,206,51,0,0 // pand 0x33ce(%esi),%xmm6
+ .byte 102,15,219,182,210,51,0,0 // pand 0x33d2(%esi),%xmm6
.byte 102,15,235,243 // por %xmm3,%xmm6
- .byte 102,15,111,174,222,51,0,0 // movdqa 0x33de(%esi),%xmm5
+ .byte 102,15,111,174,226,51,0,0 // movdqa 0x33e2(%esi),%xmm5
.byte 102,15,219,234 // pand %xmm2,%xmm5
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -76610,19 +75627,19 @@ _sk_store_4444_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,125,16 // mov 0x10(%ebp),%edi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja d23a <_sk_store_4444_sse2_lowp+0x9a>
+ .byte 119,22 // ja cf66 <_sk_store_4444_sse2_lowp+0x9a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,180,142,2,1,0,0 // add 0x102(%esi,%ecx,4),%esi
.byte 255,230 // jmp *%esi
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 102,137,12,123 // mov %cx,(%ebx,%edi,2)
- .byte 235,59 // jmp d275 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,59 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
.byte 243,15,127,28,123 // movdqu %xmm3,(%ebx,%edi,2)
- .byte 235,52 // jmp d275 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,52 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 102,137,76,123,4 // mov %cx,0x4(%ebx,%edi,2)
.byte 102,15,126,28,123 // movd %xmm3,(%ebx,%edi,2)
- .byte 235,35 // jmp d275 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,35 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 102,137,76,123,12 // mov %cx,0xc(%ebx,%edi,2)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -76650,7 +75667,7 @@ _sk_store_4444_sse2_lowp:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 15,31,0 // nopl (%eax)
- .byte 126,0 // jle d2b6 <_sk_store_4444_sse2_lowp+0x116>
+ .byte 126,0 // jle cfe2 <_sk_store_4444_sse2_lowp+0x116>
.byte 0,0 // add %al,(%eax)
.byte 153 // cltd
.byte 0,0 // add %al,(%eax)
@@ -76671,7 +75688,7 @@ _sk_gather_4444_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d2dd <_sk_gather_4444_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call d009 <_sk_gather_4444_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -76759,7 +75776,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,130,131,50,0,0 // movdqa 0x3283(%edx),%xmm0
+ .byte 102,15,111,130,135,50,0,0 // movdqa 0x3287(%edx),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -76819,10 +75836,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d4fa <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call d226 <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d51c <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja d248 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -76830,10 +75847,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp d576 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp d576 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -76841,7 +75858,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp d576 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -76852,7 +75869,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,214,47,0,0 // pand 0x2fd6(%edi),%xmm3
+ .byte 102,15,219,159,218,47,0,0 // pand 0x2fda(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -76907,10 +75924,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d605 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call d331 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d627 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja d353 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -76918,10 +75935,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d681 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d681 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76929,7 +75946,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d681 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76940,7 +75957,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,203,46,0,0 // pand 0x2ecb(%edi),%xmm4
+ .byte 102,15,219,167,207,46,0,0 // pand 0x2ecf(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -76997,32 +76014,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d71d <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d449 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja d73d <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja d469 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp d7c5 <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp d7c5 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
+ .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp d7c5 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -77032,7 +76049,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
+ .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -77066,7 +76083,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je d80e <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je d53a <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -77206,10 +76223,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d9d0 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d6fc <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja d9f2 <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja d71e <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,200,0,0,0 // mov 0xc8(%esi,%ecx,4),%ecx
@@ -77217,10 +76234,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp da4c <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp da4c <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -77228,7 +76245,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp da4c <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -77239,7 +76256,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,0,43,0,0 // pand 0x2b00(%esi),%xmm0
+ .byte 102,15,219,134,4,43,0,0 // pand 0x2b04(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -77250,7 +76267,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,0,43,0,0 // movaps 0x2b00(%esi),%xmm3
+ .byte 15,40,158,4,43,0,0 // movaps 0x2b04(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -77294,10 +76311,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dadd <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call d809 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja daff <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja d82b <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -77305,10 +76322,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp db59 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp db59 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -77316,7 +76333,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp db59 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -77327,9 +76344,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,243,41,0,0 // pand 0x29f3(%edi),%xmm4
+ .byte 102,15,219,167,247,41,0,0 // pand 0x29f7(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,243,41,0,0 // movaps 0x29f3(%edi),%xmm5
+ .byte 15,40,175,247,41,0,0 // movaps 0x29f7(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -77370,7 +76387,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call dbcd <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call d8f9 <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -77380,10 +76397,10 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,211,41,0,0 // pmullw 0x29d3(%eax),%xmm0
- .byte 102,15,213,136,227,41,0,0 // pmullw 0x29e3(%eax),%xmm1
+ .byte 102,15,213,128,215,41,0,0 // pmullw 0x29d7(%eax),%xmm0
+ .byte 102,15,213,136,231,41,0,0 // pmullw 0x29e7(%eax),%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,243,41,0,0 // pmullw 0x29f3(%eax),%xmm3
+ .byte 102,15,213,152,247,41,0,0 // pmullw 0x29f7(%eax),%xmm3
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 141,71,4 // lea 0x4(%edi),%eax
@@ -77464,7 +76481,7 @@ _sk_gather_g8_sse2_lowp:
.byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
- .byte 232,0,0,0,0 // call dd12 <_sk_gather_g8_sse2_lowp+0xc9>
+ .byte 232,0,0,0,0 // call da3e <_sk_gather_g8_sse2_lowp+0xc9>
.byte 89 // pop %ecx
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
@@ -77508,7 +76525,7 @@ _sk_gather_g8_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,60,36 // mov %edi,(%esp)
- .byte 15,40,153,190,39,0,0 // movaps 0x27be(%ecx),%xmm3
+ .byte 15,40,153,194,39,0,0 // movaps 0x27c2(%ecx),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -77528,7 +76545,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call dde3 <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call db0f <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -77536,7 +76553,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
.byte 243,15,89,166,245,39,0,0 // mulss 0x27f5(%esi),%xmm4
- .byte 243,15,88,166,237,39,0,0 // addss 0x27ed(%esi),%xmm4
+ .byte 243,15,88,166,241,39,0,0 // addss 0x27f1(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -77549,7 +76566,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,237,38,0,0 // movdqa 0x26ed(%esi),%xmm5
+ .byte 102,15,111,174,241,38,0,0 // movdqa 0x26f1(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -77588,19 +76605,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call deb1 <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call dbdd <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
.byte 243,15,89,177,39,39,0,0 // mulss 0x2727(%ecx),%xmm6
- .byte 243,15,88,177,31,39,0,0 // addss 0x271f(%ecx),%xmm6
+ .byte 243,15,88,177,35,39,0,0 // addss 0x2723(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,31,38,0,0 // movdqa 0x261f(%ecx),%xmm0
+ .byte 102,15,111,129,35,38,0,0 // movdqa 0x2623(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -77673,10 +76690,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dfda <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call dd06 <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja dffc <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja dd28 <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,2,1,0,0 // mov 0x102(%edi,%ecx,4),%ecx
@@ -77684,10 +76701,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp e056 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp e056 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -77695,7 +76712,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp e056 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -77706,9 +76723,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,246,36,0,0 // pand 0x24f6(%edi),%xmm4
+ .byte 102,15,219,167,250,36,0,0 // pand 0x24fa(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,246,36,0,0 // movdqa 0x24f6(%edi),%xmm5
+ .byte 102,15,111,175,250,36,0,0 // movdqa 0x24fa(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -77775,10 +76792,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e126 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call de52 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e148 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja de74 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -77786,10 +76803,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp e1a2 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp e1a2 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -77797,7 +76814,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp e1a2 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -77808,8 +76825,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,170,35,0,0 // pand 0x23aa(%edi),%xmm3
- .byte 102,15,111,183,170,35,0,0 // movdqa 0x23aa(%edi),%xmm6
+ .byte 102,15,219,159,174,35,0,0 // pand 0x23ae(%edi),%xmm3
+ .byte 102,15,111,183,174,35,0,0 // movdqa 0x23ae(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -77898,10 +76915,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e2cf <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call dffb <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e2f1 <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja e01d <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -77909,14 +76926,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e32c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e32c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e32c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -77924,11 +76941,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,65,34,0,0 // pand 0x2241(%edi),%xmm1
+ .byte 102,15,219,143,69,34,0,0 // pand 0x2245(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,81,34,0,0 // pand 0x2251(%edi),%xmm2
- .byte 102,15,111,135,97,34,0,0 // movdqa 0x2261(%edi),%xmm0
+ .byte 102,15,219,151,85,34,0,0 // pand 0x2255(%edi),%xmm2
+ .byte 102,15,111,135,101,34,0,0 // movdqa 0x2265(%edi),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -77941,7 +76958,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,113,208,2 // psrlw $0x2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,17,34,0,0 // movdqa 0x2211(%edi),%xmm4
+ .byte 102,15,111,167,21,34,0,0 // movdqa 0x2215(%edi),%xmm4
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 102,15,239,244 // pxor %xmm4,%xmm6
.byte 102,15,239,252 // pxor %xmm4,%xmm7
@@ -77984,7 +77001,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
.byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,1,34,0,0 // movdqa 0x2201(%edi),%xmm0
+ .byte 102,15,111,135,5,34,0,0 // movdqa 0x2205(%edi),%xmm0
.byte 102,15,253,216 // paddw %xmm0,%xmm3
.byte 102,15,253,208 // paddw %xmm0,%xmm2
.byte 102,15,253,224 // paddw %xmm0,%xmm4
@@ -78061,10 +77078,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e527 <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call e253 <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e549 <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja e275 <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -78072,14 +77089,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e584 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e584 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e584 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -78087,11 +77104,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,233,31,0,0 // pand 0x1fe9(%edi),%xmm1
+ .byte 102,15,219,143,237,31,0,0 // pand 0x1fed(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,249,31,0,0 // pand 0x1ff9(%edi),%xmm2
- .byte 102,15,111,175,9,32,0,0 // movdqa 0x2009(%edi),%xmm5
+ .byte 102,15,219,151,253,31,0,0 // pand 0x1ffd(%edi),%xmm2
+ .byte 102,15,111,175,13,32,0,0 // movdqa 0x200d(%edi),%xmm5
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -78104,7 +77121,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,113,213,2 // psrlw $0x2,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
.byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,185,31,0,0 // movdqa 0x1fb9(%edi),%xmm4
+ .byte 102,15,111,167,189,31,0,0 // movdqa 0x1fbd(%edi),%xmm4
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -78145,7 +77162,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,235,249 // por %xmm1,%xmm7
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,169,31,0,0 // movdqa 0x1fa9(%edi),%xmm1
+ .byte 102,15,111,143,173,31,0,0 // movdqa 0x1fad(%edi),%xmm1
.byte 102,15,239,193 // pxor %xmm1,%xmm0
.byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -78225,7 +77242,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e799 <_sk_clamp_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e4c5 <_sk_clamp_x_1_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -78236,7 +77253,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,95,207 // maxps %xmm7,%xmm1
.byte 15,95,199 // maxps %xmm7,%xmm0
- .byte 15,40,184,87,22,0,0 // movaps 0x1657(%eax),%xmm7
+ .byte 15,40,184,91,22,0,0 // movaps 0x165b(%eax),%xmm7
.byte 15,93,199 // minps %xmm7,%xmm0
.byte 15,93,207 // minps %xmm7,%xmm1
.byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
@@ -78266,7 +77283,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e808 <_sk_repeat_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e534 <_sk_repeat_x_1_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -78277,7 +77294,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,194,244,1 // cmpltps %xmm4,%xmm6
- .byte 15,40,190,232,21,0,0 // movaps 0x15e8(%esi),%xmm7
+ .byte 15,40,190,236,21,0,0 // movaps 0x15ec(%esi),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,92,230 // subps %xmm6,%xmm4
.byte 15,40,240 // movaps %xmm0,%xmm6
@@ -78325,19 +77342,19 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e8b2 <_sk_mirror_x_1_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call e5de <_sk_mirror_x_1_sse2_lowp+0x1a>
.byte 88 // pop %eax
- .byte 15,40,160,174,21,0,0 // movaps 0x15ae(%eax),%xmm4
+ .byte 15,40,160,178,21,0,0 // movaps 0x15b2(%eax),%xmm4
.byte 15,88,204 // addps %xmm4,%xmm1
.byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,176,46,21,0,0 // movaps 0x152e(%eax),%xmm6
+ .byte 15,40,176,50,21,0,0 // movaps 0x1532(%eax),%xmm6
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 243,15,91,238 // cvttps2dq %xmm6,%xmm5
.byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
.byte 15,194,240,1 // cmpltps %xmm0,%xmm6
- .byte 15,40,168,62,21,0,0 // movaps 0x153e(%eax),%xmm5
+ .byte 15,40,168,66,21,0,0 // movaps 0x1542(%eax),%xmm5
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 243,15,91,247 // cvttps2dq %xmm7,%xmm6
@@ -78356,7 +77373,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 15,88,212 // addps %xmm4,%xmm2
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,160,62,26,0,0 // movaps 0x1a3e(%eax),%xmm4
+ .byte 15,40,160,66,26,0,0 // movaps 0x1a42(%eax),%xmm4
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 15,84,212 // andps %xmm4,%xmm2
.byte 15,87,228 // xorps %xmm4,%xmm4
@@ -78397,7 +77414,7 @@ _sk_gradient_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 129,236,108,1,0,0 // sub $0x16c,%esp
- .byte 232,0,0,0,0 // call e990 <_sk_gradient_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call e6bc <_sk_gradient_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 137,69,164 // mov %eax,-0x5c(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -78407,7 +77424,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 131,248,2 // cmp $0x2,%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 114,48 // jb e9da <_sk_gradient_sse2_lowp+0x5b>
+ .byte 114,48 // jb e706 <_sk_gradient_sse2_lowp+0x5b>
.byte 139,78,36 // mov 0x24(%esi),%ecx
.byte 72 // dec %eax
.byte 131,193,4 // add $0x4,%ecx
@@ -78422,7 +77439,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,234 // psubd %xmm2,%xmm5
.byte 131,193,4 // add $0x4,%ecx
.byte 72 // dec %eax
- .byte 117,223 // jne e9b9 <_sk_gradient_sse2_lowp+0x3a>
+ .byte 117,223 // jne e6e5 <_sk_gradient_sse2_lowp+0x3a>
.byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
@@ -78629,10 +77646,10 @@ _sk_gradient_sse2_lowp:
.byte 15,89,195 // mulps %xmm3,%xmm0
.byte 15,88,194 // addps %xmm2,%xmm0
.byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,136,48,21,0,0 // movaps 0x1530(%eax),%xmm1
+ .byte 15,40,136,52,21,0,0 // movaps 0x1534(%eax),%xmm1
.byte 15,89,225 // mulps %xmm1,%xmm4
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,144,80,20,0,0 // movaps 0x1450(%eax),%xmm2
+ .byte 15,40,144,84,20,0,0 // movaps 0x1454(%eax),%xmm2
.byte 15,88,194 // addps %xmm2,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,88,226 // addps %xmm2,%xmm4
@@ -78748,7 +77765,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 129,236,92,1,0,0 // sub $0x15c,%esp
.byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
.byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 232,0,0,0,0 // call ef02 <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call ec2e <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,48 // mov (%eax),%esi
@@ -78759,12 +77776,12 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 137,85,164 // mov %edx,-0x5c(%ebp)
- .byte 102,15,111,154,94,20,0,0 // movdqa 0x145e(%edx),%xmm3
+ .byte 102,15,111,154,98,20,0,0 // movdqa 0x1462(%edx),%xmm3
.byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 102,15,235,154,30,18,0,0 // por 0x121e(%edx),%xmm3
+ .byte 102,15,235,154,34,18,0,0 // por 0x1222(%edx),%xmm3
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,235,146,110,20,0,0 // por 0x146e(%edx),%xmm2
- .byte 15,88,146,126,20,0,0 // addps 0x147e(%edx),%xmm2
+ .byte 102,15,235,146,114,20,0,0 // por 0x1472(%edx),%xmm2
+ .byte 15,88,146,130,20,0,0 // addps 0x1482(%edx),%xmm2
.byte 15,88,211 // addps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
@@ -78971,10 +77988,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,89,69,136 // mulps -0x78(%ebp),%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
.byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,152,190,15,0,0 // movaps 0xfbe(%eax),%xmm3
+ .byte 15,40,152,194,15,0,0 // movaps 0xfc2(%eax),%xmm3
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,168,222,14,0,0 // movaps 0xede(%eax),%xmm5
+ .byte 15,40,168,226,14,0,0 // movaps 0xee2(%eax),%xmm5
.byte 15,88,197 // addps %xmm5,%xmm0
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,88,229 // addps %xmm5,%xmm4
@@ -79084,7 +78101,7 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call f441 <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
+ .byte 232,0,0,0,0 // call f16d <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -79099,10 +78116,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,88,227 // addps %xmm3,%xmm4
.byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,40,154,127,10,0,0 // movaps 0xa7f(%edx),%xmm3
+ .byte 15,40,154,131,10,0,0 // movaps 0xa83(%edx),%xmm3
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,130,159,9,0,0 // movaps 0x99f(%edx),%xmm0
+ .byte 15,40,130,163,9,0,0 // movaps 0x9a3(%edx),%xmm0
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,237 // cvttps2dq %xmm5,%xmm5
@@ -79219,9 +78236,9 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 232,0,0,0,0 // call f62c <_sk_xy_to_unit_angle_sse2_lowp+0x23>
+ .byte 232,0,0,0,0 // call f358 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
.byte 88 // pop %eax
- .byte 15,40,128,196,12,0,0 // movaps 0xcc4(%eax),%xmm0
+ .byte 15,40,128,200,12,0,0 // movaps 0xcc8(%eax),%xmm0
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,84,224 // andps %xmm0,%xmm4
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -79256,24 +78273,24 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,89,219 // mulps %xmm3,%xmm3
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
- .byte 15,40,136,100,13,0,0 // movaps 0xd64(%eax),%xmm1
+ .byte 15,40,136,104,13,0,0 // movaps 0xd68(%eax),%xmm1
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,116,13,0,0 // addps 0xd74(%eax),%xmm1
- .byte 15,88,128,116,13,0,0 // addps 0xd74(%eax),%xmm0
+ .byte 15,88,136,120,13,0,0 // addps 0xd78(%eax),%xmm1
+ .byte 15,88,128,120,13,0,0 // addps 0xd78(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,132,13,0,0 // addps 0xd84(%eax),%xmm1
- .byte 15,88,128,132,13,0,0 // addps 0xd84(%eax),%xmm0
+ .byte 15,88,136,136,13,0,0 // addps 0xd88(%eax),%xmm1
+ .byte 15,88,128,136,13,0,0 // addps 0xd88(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,152,148,13,0,0 // movaps 0xd94(%eax),%xmm3
+ .byte 15,40,152,152,13,0,0 // movaps 0xd98(%eax),%xmm3
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,88,195 // addps %xmm3,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,152,164,13,0,0 // movaps 0xda4(%eax),%xmm3
+ .byte 15,40,152,168,13,0,0 // movaps 0xda8(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,92,216 // subps %xmm0,%xmm3
.byte 15,84,218 // andps %xmm2,%xmm3
@@ -79286,7 +78303,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
.byte 15,194,220,1 // cmpltps %xmm4,%xmm3
- .byte 15,40,128,180,7,0,0 // movaps 0x7b4(%eax),%xmm0
+ .byte 15,40,128,184,7,0,0 // movaps 0x7b8(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,84,195 // andps %xmm3,%xmm0
@@ -79305,7 +78322,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,136,196,7,0,0 // movaps 0x7c4(%eax),%xmm1
+ .byte 15,40,136,200,7,0,0 // movaps 0x7c8(%eax),%xmm1
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,84,200 // andps %xmm0,%xmm1
@@ -79415,11 +78432,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f894 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call f5c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f8ba <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja f5e6 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,76,2,0,0 // mov 0x24c(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -79427,14 +78444,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp f903 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp f903 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f903 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -79460,7 +78477,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,60,12,0,0 // movdqa 0xc3c(%ecx),%xmm3
+ .byte 102,15,111,153,64,12,0,0 // movdqa 0xc40(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -79512,18 +78529,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja fa44 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja f770 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,104,2,0,0 // add 0x268(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp fa84 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp fa84 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp fa84 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -79607,11 +78624,11 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call fb58 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
+ .byte 232,0,0,0,0 // call f884 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja fb7e <_sk_srcover_bgra_8888_sse2_lowp+0x66>
+ .byte 119,29 // ja f8aa <_sk_srcover_bgra_8888_sse2_lowp+0x66>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 139,132,145,80,2,0,0 // mov 0x250(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -79619,14 +78636,14 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,73 // jmp fbc7 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,73 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,100,183,16 // movups 0x10(%edi,%esi,4),%xmm4
- .byte 235,61 // jmp fbc7 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,61 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp fbc7 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,43 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -79652,7 +78669,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,244 // packssdw %xmm4,%xmm6
- .byte 102,15,111,153,120,9,0,0 // movdqa 0x978(%ecx),%xmm3
+ .byte 102,15,111,153,124,9,0,0 // movdqa 0x97c(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -79704,18 +78721,18 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja fd0a <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
+ .byte 119,16 // ja fa36 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
.byte 3,140,145,108,2,0,0 // add 0x26c(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp fd4a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,64 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp fd4a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,51 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp fd4a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,33 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -79835,11 +78852,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne feb8 <.literal16+0xd8>
+ .byte 224,64 // loopne fbe8 <.literal16+0xd8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne febc <.literal16+0xdc>
+ .byte 224,64 // loopne fbec <.literal16+0xdc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne fec0 <.literal16+0xe0>
+ .byte 224,64 // loopne fbf0 <.literal16+0xe0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -79850,16 +78867,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fee1 <.literal16+0x101>
+ .byte 225,61 // loope fc11 <.literal16+0x101>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fee5 <.literal16+0x105>
+ .byte 225,61 // loope fc15 <.literal16+0x105>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fee9 <.literal16+0x109>
+ .byte 225,61 // loope fc19 <.literal16+0x109>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope feed <.literal16+0x10d>
+ .byte 225,61 // loope fc1d <.literal16+0x10d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -79869,13 +78886,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff07 <.literal16+0x127>
+ .byte 127,67 // jg fc37 <.literal16+0x127>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff0b <.literal16+0x12b>
+ .byte 127,67 // jg fc3b <.literal16+0x12b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff0f <.literal16+0x12f>
+ .byte 127,67 // jg fc3f <.literal16+0x12f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff13 <.literal16+0x133>
+ .byte 127,67 // jg fc43 <.literal16+0x133>
.byte 0,0 // add %al,(%eax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
@@ -80031,13 +79048,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 10029 <.literal16+0x249>
+ .byte 224,7 // loopne fd59 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 1002d <.literal16+0x24d>
+ .byte 224,7 // loopne fd5d <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 10031 <.literal16+0x251>
+ .byte 224,7 // loopne fd61 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 10035 <.literal16+0x255>
+ .byte 224,7 // loopne fd65 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -80086,17 +79103,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 10094 <.literal16+0x2b4>
+ .byte 127,0 // jg fdc4 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 10098 <.literal16+0x2b8>
+ .byte 127,0 // jg fdc8 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 1009c <.literal16+0x2bc>
+ .byte 127,0 // jg fdcc <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 100a0 <.literal16+0x2c0>
- .byte 119,115 // ja 10115 <.literal16+0x335>
+ .byte 127,0 // jg fdd0 <.literal16+0x2c0>
+ .byte 119,115 // ja fe45 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -80107,7 +79124,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 10079 <.literal16+0x299>
+ .byte 117,191 // jne fda9 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -80123,7 +79140,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a440b6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a3459e>
+ .byte 233,220,63,163,233 // jmp e9a43de6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -80219,16 +79236,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10203 <.literal16+0x423>
+ .byte 118,63 // jbe ff33 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10207 <.literal16+0x427>
+ .byte 118,63 // jbe ff37 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 1020b <.literal16+0x42b>
+ .byte 118,63 // jbe ff3b <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 1020f <.literal16+0x42f>
+ .byte 118,63 // jbe ff3f <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -80254,13 +79271,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10246 <.literal16+0x466>
+ .byte 124,66 // jl ff76 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 1024a <.literal16+0x46a>
+ .byte 124,66 // jl ff7a <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 1024e <.literal16+0x46e>
+ .byte 124,66 // jl ff7e <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10252 <.literal16+0x472>
+ .byte 124,66 // jl ff82 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -80306,25 +79323,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 102d5 <.literal16+0x4f5>
+ .byte 112,65 // jo 10005 <.literal16+0x4f5>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 102d9 <.literal16+0x4f9>
+ .byte 112,65 // jo 10009 <.literal16+0x4f9>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 102dd <.literal16+0x4fd>
+ .byte 112,65 // jo 1000d <.literal16+0x4fd>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 102e1 <.literal16+0x501>
+ .byte 112,65 // jo 10011 <.literal16+0x501>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg 102b3 <.literal16+0x4d3>
+ .byte 127,0 // jg ffe3 <.literal16+0x4d3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 102b7 <.literal16+0x4d7>
+ .byte 127,0 // jg ffe7 <.literal16+0x4d7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 102bb <.literal16+0x4db>
+ .byte 127,0 // jg ffeb <.literal16+0x4db>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 102bf <.literal16+0x4df>
+ .byte 127,0 // jg ffef <.literal16+0x4df>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -80350,13 +79367,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 102f8 <.literal16+0x518>
+ .byte 127,255 // jg 10028 <.literal16+0x518>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 102fc <.literal16+0x51c>
+ .byte 127,255 // jg 1002c <.literal16+0x51c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 10301 <.literal16+0x521>
+ .byte 127,0 // jg 10031 <.literal16+0x521>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -80370,13 +79387,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg 1036b <.literal16+0x58b>
+ .byte 127,71 // jg 1009b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 1036f <.literal16+0x58f>
+ .byte 127,71 // jg 1009f <.literal16+0x58f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 10373 <.literal16+0x593>
+ .byte 127,71 // jg 100a3 <.literal16+0x593>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 10377 <.literal16+0x597>
+ .byte 127,71 // jg 100a7 <.literal16+0x597>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -80473,13 +79490,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 1043e <.literal16+0x65e>
+ .byte 114,28 // jb 1016e <.literal16+0x65e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10442 <.literal16+0x662>
+ .byte 62,114,28 // jb,pt 10172 <.literal16+0x662>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10446 <.literal16+0x666>
+ .byte 62,114,28 // jb,pt 10176 <.literal16+0x666>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 1044a <.literal16+0x66a>
+ .byte 62,114,28 // jb,pt 1017a <.literal16+0x66a>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -80500,13 +79517,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg 104a3 <.literal16+0x6c3>
- .byte 114,249 // jb 1045f <.literal16+0x67f>
- .byte 127,63 // jg 104a7 <.literal16+0x6c7>
- .byte 114,249 // jb 10463 <.literal16+0x683>
- .byte 127,63 // jg 104ab <.literal16+0x6cb>
- .byte 114,249 // jb 10467 <.literal16+0x687>
- .byte 127,63 // jg 104af <.literal16+0x6cf>
+ .byte 127,63 // jg 101d3 <.literal16+0x6c3>
+ .byte 114,249 // jb 1018f <.literal16+0x67f>
+ .byte 127,63 // jg 101d7 <.literal16+0x6c7>
+ .byte 114,249 // jb 10193 <.literal16+0x683>
+ .byte 127,63 // jg 101db <.literal16+0x6cb>
+ .byte 114,249 // jb 10197 <.literal16+0x687>
+ .byte 127,63 // jg 101df <.literal16+0x6cf>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -80602,14 +79619,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 10551 <.literal16+0x771>
- .byte 224,255 // loopne 10553 <.literal16+0x773>
- .byte 224,255 // loopne 10555 <.literal16+0x775>
- .byte 224,255 // loopne 10557 <.literal16+0x777>
- .byte 224,255 // loopne 10559 <.literal16+0x779>
- .byte 224,255 // loopne 1055b <.literal16+0x77b>
- .byte 224,255 // loopne 1055d <.literal16+0x77d>
- .byte 224,255 // loopne 1055f <.literal16+0x77f>
+ .byte 224,255 // loopne 10281 <.literal16+0x771>
+ .byte 224,255 // loopne 10283 <.literal16+0x773>
+ .byte 224,255 // loopne 10285 <.literal16+0x775>
+ .byte 224,255 // loopne 10287 <.literal16+0x777>
+ .byte 224,255 // loopne 10289 <.literal16+0x779>
+ .byte 224,255 // loopne 1028b <.literal16+0x77b>
+ .byte 224,255 // loopne 1028d <.literal16+0x77d>
+ .byte 224,255 // loopne 1028f <.literal16+0x77f>
.byte 15,0,15 // str (%edi)
.byte 0,15 // add %cl,(%edi)
.byte 0,15 // add %cl,(%edi)
@@ -80664,5 +79681,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 0,191,0,0,127,67 // add %bh,0x437f0000(%edi)
+ .byte 127,67 // jg 1034b <_sk_srcover_bgra_8888_sse2_lowp+0xb07>
#endif