aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S10788
1 files changed, 5859 insertions, 4929 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 7005ce41f1..28fa01026a 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -116,9 +116,9 @@ _sk_seed_shader_skx:
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,18,161,3,0 // vaddps 0x3a112(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,70,173,3,0 // vaddps 0x3ad46(%rip){1to8},%ymm1,%ymm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,11,161,3,0 // vbroadcastss 0x3a10b(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,63,173,3,0 // vbroadcastss 0x3ad3f(%rip),%ymm2 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -132,16 +132,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,141,162,3,0 // vpaddd 0x3a28d(%rip),%ymm8,%ymm8 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x458>
+ .byte 197,61,254,5,205,174,3,0 // vpaddd 0x3aecd(%rip),%ymm8,%ymm8 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x464>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,213,160,3,0 // vpbroadcastd 0x3a0d5(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,9,173,3,0 // vpbroadcastd 0x3ad09(%rip),%ymm10 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,186,160,3,0 // vpbroadcastd 0x3a0ba(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,181,160,3,0 // vpbroadcastd 0x3a0b5(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,238,172,3,0 // vpbroadcastd 0x3acee(%rip),%ymm12 # 3ae54 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,233,172,3,0 // vpbroadcastd 0x3ace9(%rip),%ymm13 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -156,8 +156,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,103,160,3,0 // vbroadcastss 0x3a067(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 98,114,61,56,168,13,97,160,3,0 // vfmadd213ps 0x3a061(%rip){1to8},%ymm8,%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,155,172,3,0 // vbroadcastss 0x3ac9b(%rip),%ymm9 # 3ae5c <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 98,114,61,56,168,13,149,172,3,0 // vfmadd213ps 0x3ac95(%rip){1to8},%ymm8,%ymm9 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -190,7 +190,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,238,159,3,0 // vbroadcastss 0x39fee(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,34,172,3,0 // vbroadcastss 0x3ac22(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -201,7 +201,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,213,159,3,0 // vbroadcastss 0x39fd5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,9,172,3,0 // vbroadcastss 0x3ac09(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -247,7 +247,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,116,159,3,0 // vbroadcastss 0x39f74(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,168,171,3,0 // vbroadcastss 0x3aba8(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -263,7 +263,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,67,159,3,0 // vbroadcastss 0x39f43(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,119,171,3,0 // vbroadcastss 0x3ab77(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -302,7 +302,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,230,158,3,0 // vbroadcastss 0x39ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,26,171,3,0 // vbroadcastss 0x3ab1a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -315,7 +315,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,197,158,3,0 // vbroadcastss 0x39ec5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,249,170,3,0 // vbroadcastss 0x3aaf9(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -328,7 +328,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,164,158,3,0 // vbroadcastss 0x39ea4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,216,170,3,0 // vbroadcastss 0x3aad8(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -341,7 +341,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,127,158,3,0 // vbroadcastss 0x39e7f(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,179,170,3,0 // vbroadcastss 0x3aab3(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -365,7 +365,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,70,158,3,0 // vbroadcastss 0x39e46(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,122,170,3,0 // vbroadcastss 0x3aa7a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -388,7 +388,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,245,157,3,0 // vbroadcastss 0x39df5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,41,170,3,0 // vbroadcastss 0x3aa29(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -418,7 +418,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,160,157,3,0 // vbroadcastss 0x39da0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,212,169,3,0 // vbroadcastss 0x3a9d4(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -452,7 +452,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,36,157,3,0 // vbroadcastss 0x39d24(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,88,169,3,0 // vbroadcastss 0x3a958(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -477,7 +477,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,207,156,3,0 // vbroadcastss 0x39ccf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,3,169,3,0 // vbroadcastss 0x3a903(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -505,7 +505,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,110,156,3,0 // vbroadcastss 0x39c6e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,162,168,3,0 // vbroadcastss 0x3a8a2(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -527,7 +527,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,40,156,3,0 // vbroadcastss 0x39c28(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,92,168,3,0 // vbroadcastss 0x3a85c(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -539,7 +539,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,5,156,3,0 // vbroadcastss 0x39c05(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,57,168,3,0 // vbroadcastss 0x3a839(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -603,7 +603,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,214,154,3,0 // vbroadcastss 0x39ad6(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,10,167,3,0 // vbroadcastss 0x3a70a(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -660,7 +660,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,206,153,3,0 // vbroadcastss 0x399ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,2,166,3,0 // vbroadcastss 0x3a602(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -714,7 +714,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,234,152,3,0 // vbroadcastss 0x398ea(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,30,165,3,0 // vbroadcastss 0x3a51e(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -780,15 +780,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,200,151,3,0 // vbroadcastss 0x397c8(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,252,163,3,0 // vbroadcastss 0x3a3fc(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,195,151,3,0 // vbroadcastss 0x397c3(%rip),%ymm18 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 98,226,125,40,24,21,247,163,3,0 // vbroadcastss 0x3a3f7(%rip),%ymm18 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,177,151,3,0 // vbroadcastss 0x397b1(%rip),%ymm19 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 98,226,125,40,24,29,229,163,3,0 // vbroadcastss 0x3a3e5(%rip),%ymm19 # 3ae68 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -910,11 +910,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,76,149,3,0 // vbroadcastss 0x3954c(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,71,149,3,0 // vbroadcastss 0x39547(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,128,161,3,0 // vbroadcastss 0x3a180(%rip),%ymm13 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,123,161,3,0 // vbroadcastss 0x3a17b(%rip),%ymm14 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,55,149,3,0 // vbroadcastss 0x39537(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,107,161,3,0 // vbroadcastss 0x3a16b(%rip),%ymm16 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -971,7 +971,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,211,147,3,0 // vbroadcastss 0x393d3(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,7,160,3,0 // vbroadcastss 0x3a007(%rip),%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1023,11 +1023,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,8,147,3,0 // vbroadcastss 0x39308(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,3,147,3,0 // vbroadcastss 0x39303(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,60,159,3,0 // vbroadcastss 0x39f3c(%rip),%ymm13 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,55,159,3,0 // vbroadcastss 0x39f37(%rip),%ymm14 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,243,146,3,0 // vbroadcastss 0x392f3(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,39,159,3,0 // vbroadcastss 0x39f27(%rip),%ymm16 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -1084,7 +1084,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,143,145,3,0 // vbroadcastss 0x3918f(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,195,157,3,0 // vbroadcastss 0x39dc3(%rip),%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1108,11 +1108,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,88,145,3,0 // vbroadcastss 0x39158(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,83,145,3,0 // vbroadcastss 0x39153(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,140,157,3,0 // vbroadcastss 0x39d8c(%rip),%ymm12 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,135,157,3,0 // vbroadcastss 0x39d87(%rip),%ymm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,68,145,3,0 // vbroadcastss 0x39144(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,120,157,3,0 // vbroadcastss 0x39d78(%rip),%ymm15 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1170,7 +1170,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,213,143,3,0 // vbroadcastss 0x38fd5(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,9,156,3,0 // vbroadcastss 0x39c09(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1194,11 +1194,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,160,143,3,0 // vbroadcastss 0x38fa0(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,155,143,3,0 // vbroadcastss 0x38f9b(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,212,155,3,0 // vbroadcastss 0x39bd4(%rip),%ymm12 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,207,155,3,0 // vbroadcastss 0x39bcf(%rip),%ymm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,140,143,3,0 // vbroadcastss 0x38f8c(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,192,155,3,0 // vbroadcastss 0x39bc0(%rip),%ymm15 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1256,7 +1256,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,29,142,3,0 // vbroadcastss 0x38e1d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,81,154,3,0 // vbroadcastss 0x39a51(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1300,9 +1300,9 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,111,141,3,0 // vbroadcastss 0x38d6f(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,163,153,3,0 // vbroadcastss 0x399a3(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,142,141,3,0 // vbroadcastss 0x38d8e(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,194,153,3,0 // vbroadcastss 0x399c2(%rip),%ymm10 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -1450,9 +1450,9 @@ _sk_srcover_bgra_8888_skx:
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,2,139,3,0 // vbroadcastss 0x38b02(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,54,151,3,0 // vbroadcastss 0x39736(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,33,139,3,0 // vbroadcastss 0x38b21(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,85,151,3,0 // vbroadcastss 0x39755(%rip),%ymm10 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -1592,7 +1592,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,222,136,3,0 // vbroadcastss 0x388de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,18,149,3,0 // vbroadcastss 0x39512(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -1604,7 +1604,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,188,136,3,0 // vminps 0x388bc(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,240,148,3,0 // vminps 0x394f0(%rip){1to8},%ymm3,%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -1615,7 +1615,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,162,136,3,0 // vminps 0x388a2(%rip){1to8},%ymm7,%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,68,56,93,61,214,148,3,0 // vminps 0x394d6(%rip){1to8},%ymm7,%ymm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -1647,7 +1647,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,98,136,3,0 // vbroadcastss 0x38862(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,150,148,3,0 // vbroadcastss 0x39496(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -1701,9 +1701,9 @@ HIDDEN _sk_unpremul_skx
.globl _sk_unpremul_skx
FUNCTION(_sk_unpremul_skx)
_sk_unpremul_skx:
- .byte 196,98,125,24,5,253,135,3,0 // vbroadcastss 0x387fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,49,148,3,0 // vbroadcastss 0x39431(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 98,241,60,56,194,5,30,136,3,0,1 // vcmpltps 0x3881e(%rip){1to8},%ymm8,%k0 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 98,241,60,56,194,5,82,148,3,0,1 // vcmpltps 0x39452(%rip){1to8},%ymm8,%k0 # 3ae7c <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -1717,16 +1717,16 @@ HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,248,135,3,0 // vbroadcastss 0x387f8(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,44,148,3,0 // vbroadcastss 0x3942c(%rip),%ymm8 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,234,135,3,0 // vbroadcastss 0x387ea(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,201,135,3,0 // vbroadcastss 0x387c9(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,30,148,3,0 // vbroadcastss 0x3941e(%rip),%ymm11 # 3ae84 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,253,147,3,0 // vbroadcastss 0x393fd(%rip),%ymm12 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,210,135,3,0 // vbroadcastss 0x387d2(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,6,148,3,0 // vbroadcastss 0x39406(%rip),%ymm14 # 3ae88 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,200,135,3,0 // vbroadcastss 0x387c8(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,252,147,3,0 // vbroadcastss 0x393fc(%rip),%ymm10 # 3ae8c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -1752,16 +1752,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,75,135,3,0 // vbroadcastss 0x3874b(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,127,147,3,0 // vbroadcastss 0x3937f(%rip),%ymm8 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,61,135,3,0 // vbroadcastss 0x3873d(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,28,135,3,0 // vbroadcastss 0x3871c(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,113,147,3,0 // vbroadcastss 0x39371(%rip),%ymm11 # 3ae84 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,80,147,3,0 // vbroadcastss 0x39350(%rip),%ymm12 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,37,135,3,0 // vbroadcastss 0x38725(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,89,147,3,0 // vbroadcastss 0x39359(%rip),%ymm14 # 3ae88 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,27,135,3,0 // vbroadcastss 0x3871b(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,79,147,3,0 // vbroadcastss 0x3934f(%rip),%ymm10 # 3ae8c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -1788,19 +1788,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,168,134,3,0 // vbroadcastss 0x386a8(%rip),%ymm9 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,13,220,146,3,0 // vbroadcastss 0x392dc(%rip),%ymm9 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,158,134,3,0 // vbroadcastss 0x3869e(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,153,134,3,0 // vbroadcastss 0x38699(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,210,146,3,0 // vbroadcastss 0x392d2(%rip),%ymm11 # 3ae94 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,205,146,3,0 // vbroadcastss 0x392cd(%rip),%ymm12 # 3ae98 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,138,134,3,0 // vbroadcastss 0x3868a(%rip),%ymm14 # 3a268 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
+ .byte 196,98,125,24,53,190,146,3,0 // vbroadcastss 0x392be(%rip),%ymm14 # 3ae9c <_sk_srcover_bgra_8888_sse2_lowp+0x300>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,128,134,3,0 // vbroadcastss 0x38680(%rip),%ymm15 # 3a26c <_sk_srcover_bgra_8888_sse2_lowp+0x304>
+ .byte 196,98,125,24,61,180,146,3,0 // vbroadcastss 0x392b4(%rip),%ymm15 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0x304>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,107,134,3,0 // vbroadcastss 0x3866b(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,159,146,3,0 // vbroadcastss 0x3929f(%rip),%ymm13 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -1838,7 +1838,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,92,133,3,0 // vbroadcastss 0x3855c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,144,145,3,0 // vbroadcastss 0x39190(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -1847,23 +1847,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,126,133,3,0 // vbroadcastss 0x3857e(%rip),%ymm11 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,29,178,145,3,0 // vbroadcastss 0x391b2(%rip),%ymm11 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,89,133,3,0 // vbroadcastss 0x38559(%rip),%ymm15 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,61,141,145,3,0 // vbroadcastss 0x3918d(%rip),%ymm15 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,74,133,3,0 // vfmadd213ps 0x3854a(%rip){1to8},%ymm12,%ymm0 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,242,29,56,168,5,126,145,3,0 // vfmadd213ps 0x3917e(%rip){1to8},%ymm12,%ymm0 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,50,133,3,0 // vmulps 0x38532(%rip){1to8},%ymm0,%ymm0 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 98,241,124,56,89,5,102,145,3,0 // vmulps 0x39166(%rip){1to8},%ymm0,%ymm0 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,184,132,3,0 // vbroadcastss 0x384b8(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,236,144,3,0 // vbroadcastss 0x390ec(%rip),%ymm11 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -1882,7 +1882,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,106,132,3,0 // vbroadcastss 0x3846a(%rip),%ymm16 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,226,125,40,24,5,158,144,3,0 // vbroadcastss 0x3909e(%rip),%ymm16 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -1890,27 +1890,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,159,132,3,0 // vfmsub231ps 0x3849f(%rip){1to8},%ymm2,%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 98,114,109,56,186,13,211,144,3,0 // vfmsub231ps 0x390d3(%rip){1to8},%ymm2,%ymm9 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,143,132,3,0 // vaddps 0x3848f(%rip){1to8},%ymm0,%ymm1 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 98,241,124,56,88,13,195,144,3,0 // vaddps 0x390c3(%rip){1to8},%ymm0,%ymm1 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,126,132,3,0 // vbroadcastss 0x3847e(%rip),%ymm19 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 98,226,125,40,24,29,178,144,3,0 // vbroadcastss 0x390b2(%rip),%ymm19 # 3aebc <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,79,132,3,0 // vbroadcastss 0x3844f(%rip),%ymm15 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,61,131,144,3,0 // vbroadcastss 0x39083(%rip),%ymm15 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,72,132,3,0 // vbroadcastss 0x38448(%rip),%ymm17 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,226,125,40,24,13,124,144,3,0 // vbroadcastss 0x3907c(%rip),%ymm17 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,31,132,3,0 // vbroadcastss 0x3841f(%rip),%ymm10 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,21,83,144,3,0 // vbroadcastss 0x39053(%rip),%ymm10 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -1932,7 +1932,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,165,131,3,0 // vaddps 0x383a5(%rip){1to8},%ymm0,%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 98,241,124,56,88,5,217,143,3,0 // vaddps 0x38fd9(%rip){1to8},%ymm0,%ymm0 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -1981,10 +1981,10 @@ _sk_scale_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 1fc3 <_sk_scale_u8_skx+0x4e>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,85,139,3,0 // vpand 0x38b55(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,57,219,5,85,152,3,0 // vpand 0x39855(%rip),%xmm8,%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,225,130,3,0 // vmulps 0x382e1(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,21,143,3,0 // vmulps 0x38f15(%rip){1to8},%ymm8,%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -2061,15 +2061,15 @@ _sk_scale_565_skx:
.byte 15,133,145,0,0,0 // jne 213c <_sk_scale_565_skx+0xb0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,212,129,3,0 // vpandd 0x381d4(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,8,142,3,0 // vpandd 0x38e08(%rip){1to8},%ymm8,%ymm9 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,201,129,3,0 // vmulps 0x381c9(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,195,129,3,0 // vpandd 0x381c3(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,253,141,3,0 // vmulps 0x38dfd(%rip){1to8},%ymm9,%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,247,141,3,0 // vpandd 0x38df7(%rip){1to8},%ymm8,%ymm10 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,184,129,3,0 // vmulps 0x381b8(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,178,129,3,0 // vpandd 0x381b2(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,236,141,3,0 // vmulps 0x38dec(%rip){1to8},%ymm10,%ymm10 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,230,141,3,0 // vpandd 0x38de6(%rip){1to8},%ymm8,%ymm8 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,167,129,3,0 // vmulps 0x381a7(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,219,141,3,0 // vmulps 0x38ddb(%rip){1to8},%ymm8,%ymm8 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2165,10 +2165,10 @@ _sk_lerp_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,74 // jne 2291 <_sk_lerp_u8_skx+0x62>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,155,136,3,0 // vpand 0x3889b(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,57,219,5,155,149,3,0 // vpand 0x3959b(%rip),%xmm8,%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,39,128,3,0 // vmulps 0x38027(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,91,140,3,0 // vmulps 0x38c5b(%rip){1to8},%ymm8,%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -2248,15 +2248,15 @@ _sk_lerp_565_skx:
.byte 15,133,165,0,0,0 // jne 241c <_sk_lerp_565_skx+0xc4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,8,127,3,0 // vpandd 0x37f08(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,60,139,3,0 // vpandd 0x38b3c(%rip){1to8},%ymm8,%ymm9 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,253,126,3,0 // vmulps 0x37efd(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,247,126,3,0 // vpandd 0x37ef7(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,49,139,3,0 // vmulps 0x38b31(%rip){1to8},%ymm9,%ymm9 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,43,139,3,0 // vpandd 0x38b2b(%rip){1to8},%ymm8,%ymm10 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,236,126,3,0 // vmulps 0x37eec(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,230,126,3,0 // vpandd 0x37ee6(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,32,139,3,0 // vmulps 0x38b20(%rip){1to8},%ymm10,%ymm10 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,26,139,3,0 // vpandd 0x38b1a(%rip){1to8},%ymm8,%ymm8 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,219,126,3,0 // vmulps 0x37edb(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,15,139,3,0 // vmulps 0x38b0f(%rip){1to8},%ymm8,%ymm8 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2356,7 +2356,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,46,125,3,0 // vmulps 0x37d2e(%rip){1to8},%ymm3,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,100,56,89,29,98,137,3,0 // vmulps 0x38962(%rip){1to8},%ymm3,%ymm3 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -2435,7 +2435,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,89,132,3,0 // vmovdqa 0x38459(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,121,111,21,89,145,3,0 // vmovdqa 0x39159(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2461,7 +2461,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,148,123,3,0 // vmulps 0x37b94(%rip){1to8},%ymm3,%ymm3 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 98,241,100,56,89,29,200,135,3,0 // vmulps 0x387c8(%rip){1to8},%ymm3,%ymm3 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
@@ -2518,7 +2518,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,226,130,3,0 // vmovdqa 0x382e2(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,121,111,21,226,143,3,0 // vmovdqa 0x38fe2(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2539,7 +2539,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,165,121,3,0 // vbroadcastss 0x379a5(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,217,133,3,0 // vbroadcastss 0x385d9(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
@@ -2610,9 +2610,9 @@ _sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,101,120,3,0 // vbroadcastss 0x37865(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,153,132,3,0 // vbroadcastss 0x38499(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,131,120,3,0 // vbroadcastss 0x37883(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,183,132,3,0 // vbroadcastss 0x384b7(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,65,249,126,208 // vmovq %xmm10,%r8
@@ -2748,7 +2748,7 @@ _sk_byte_tables_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,57,118,3,0 // vbroadcastss 0x37639(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,109,130,3,0 // vbroadcastss 0x3826d(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2774,7 +2774,7 @@ _sk_byte_tables_rgb_skx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,97,117,3,0 // vbroadcastss 0x37561(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,149,129,3,0 // vbroadcastss 0x38195(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
@@ -2877,7 +2877,7 @@ _sk_byte_tables_rgb_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,229,115,3,0 // vbroadcastss 0x373e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,25,128,3,0 // vbroadcastss 0x38019(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2901,7 +2901,7 @@ _sk_table_r_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,25,115,3,0 // vminps 0x37319(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,77,127,3,0 // vminps 0x37f4d(%rip){1to8},%ymm0,%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2922,7 +2922,7 @@ _sk_table_g_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 98,241,116,56,93,13,212,114,3,0 // vminps 0x372d4(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,8,127,3,0 // vminps 0x37f08(%rip){1to8},%ymm1,%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2943,7 +2943,7 @@ _sk_table_b_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 98,241,108,56,93,21,143,114,3,0 // vminps 0x3728f(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,195,126,3,0 // vminps 0x37ec3(%rip){1to8},%ymm2,%ymm2 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2964,7 +2964,7 @@ _sk_table_a_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 98,241,100,56,93,29,74,114,3,0 // vminps 0x3724a(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,126,126,3,0 // vminps 0x37e7e(%rip){1to8},%ymm3,%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2989,33 +2989,33 @@ _sk_parametric_r_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,119,114,3,0 // vbroadcastss 0x37277(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,117,114,3,0 // vfmadd213ps 0x37275(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,103,114,3,0 // vandps 0x37267(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,189,113,3,0 // vorps 0x371bd(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,91,114,3,0 // vfnmadd231ps 0x3725b(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,85,114,3,0 // vaddps 0x37255(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,80,114,3,0 // vbroadcastss 0x37250(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,171,126,3,0 // vbroadcastss 0x37eab(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,169,126,3,0 // vfmadd213ps 0x37ea9(%rip){1to8},%ymm13,%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,155,126,3,0 // vandps 0x37e9b(%rip){1to8},%ymm10,%ymm10 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,241,125,3,0 // vorps 0x37df1(%rip){1to8},%ymm10,%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,143,126,3,0 // vfnmadd231ps 0x37e8f(%rip){1to8},%ymm10,%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,137,126,3,0 // vaddps 0x37e89(%rip){1to8},%ymm10,%ymm10 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,132,126,3,0 // vbroadcastss 0x37e84(%rip),%ymm13 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,48,114,3,0 // vaddps 0x37230(%rip){1to8},%ymm0,%ymm0 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,5,42,114,3,0 // vfnmadd231ps 0x3722a(%rip){1to8},%ymm10,%ymm0 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,37,114,3,0 // vbroadcastss 0x37225(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,124,56,88,5,100,126,3,0 // vaddps 0x37e64(%rip){1to8},%ymm0,%ymm0 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,5,94,126,3,0 // vfnmadd231ps 0x37e5e(%rip){1to8},%ymm10,%ymm0 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,89,126,3,0 // vbroadcastss 0x37e59(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,27,114,3,0 // vbroadcastss 0x3721b(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,79,126,3,0 // vbroadcastss 0x37e4f(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,11,114,3,0 // vmulps 0x3720b(%rip){1to8},%ymm0,%ymm0 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,124,56,89,5,63,126,3,0 // vmulps 0x37e3f(%rip){1to8},%ymm0,%ymm0 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,193,124,95,195 // vmaxps %ymm11,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,33,113,3,0 // vminps 0x37121(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,85,125,3,0 // vminps 0x37d55(%rip){1to8},%ymm0,%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3035,33 +3035,33 @@ _sk_parametric_g_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,102,113,3,0 // vbroadcastss 0x37166(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,100,113,3,0 // vfmadd213ps 0x37164(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,86,113,3,0 // vandps 0x37156(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,172,112,3,0 // vorps 0x370ac(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,74,113,3,0 // vfnmadd231ps 0x3714a(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,68,113,3,0 // vaddps 0x37144(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,63,113,3,0 // vbroadcastss 0x3713f(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,154,125,3,0 // vbroadcastss 0x37d9a(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,152,125,3,0 // vfmadd213ps 0x37d98(%rip){1to8},%ymm13,%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,138,125,3,0 // vandps 0x37d8a(%rip){1to8},%ymm10,%ymm10 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,224,124,3,0 // vorps 0x37ce0(%rip){1to8},%ymm10,%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,126,125,3,0 // vfnmadd231ps 0x37d7e(%rip){1to8},%ymm10,%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,120,125,3,0 // vaddps 0x37d78(%rip){1to8},%ymm10,%ymm10 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,115,125,3,0 // vbroadcastss 0x37d73(%rip),%ymm13 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,31,113,3,0 // vaddps 0x3711f(%rip){1to8},%ymm1,%ymm1 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,13,25,113,3,0 // vfnmadd231ps 0x37119(%rip){1to8},%ymm10,%ymm1 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,20,113,3,0 // vbroadcastss 0x37114(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,116,56,88,13,83,125,3,0 // vaddps 0x37d53(%rip){1to8},%ymm1,%ymm1 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,13,77,125,3,0 // vfnmadd231ps 0x37d4d(%rip){1to8},%ymm10,%ymm1 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,72,125,3,0 // vbroadcastss 0x37d48(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,10,113,3,0 // vbroadcastss 0x3710a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,62,125,3,0 // vbroadcastss 0x37d3e(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,250,112,3,0 // vmulps 0x370fa(%rip){1to8},%ymm1,%ymm1 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,116,56,89,13,46,125,3,0 // vmulps 0x37d2e(%rip){1to8},%ymm1,%ymm1 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,193,116,95,203 // vmaxps %ymm11,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,16,112,3,0 // vminps 0x37010(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,68,124,3,0 // vminps 0x37c44(%rip){1to8},%ymm1,%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3081,33 +3081,33 @@ _sk_parametric_b_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,85,112,3,0 // vbroadcastss 0x37055(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,83,112,3,0 // vfmadd213ps 0x37053(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,69,112,3,0 // vandps 0x37045(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,155,111,3,0 // vorps 0x36f9b(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,57,112,3,0 // vfnmadd231ps 0x37039(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,51,112,3,0 // vaddps 0x37033(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,46,112,3,0 // vbroadcastss 0x3702e(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,137,124,3,0 // vbroadcastss 0x37c89(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,135,124,3,0 // vfmadd213ps 0x37c87(%rip){1to8},%ymm13,%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,121,124,3,0 // vandps 0x37c79(%rip){1to8},%ymm10,%ymm10 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,207,123,3,0 // vorps 0x37bcf(%rip){1to8},%ymm10,%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,109,124,3,0 // vfnmadd231ps 0x37c6d(%rip){1to8},%ymm10,%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,103,124,3,0 // vaddps 0x37c67(%rip){1to8},%ymm10,%ymm10 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,98,124,3,0 // vbroadcastss 0x37c62(%rip),%ymm13 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,14,112,3,0 // vaddps 0x3700e(%rip){1to8},%ymm2,%ymm2 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,21,8,112,3,0 // vfnmadd231ps 0x37008(%rip){1to8},%ymm10,%ymm2 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,3,112,3,0 // vbroadcastss 0x37003(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,108,56,88,21,66,124,3,0 // vaddps 0x37c42(%rip){1to8},%ymm2,%ymm2 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,21,60,124,3,0 // vfnmadd231ps 0x37c3c(%rip){1to8},%ymm10,%ymm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,55,124,3,0 // vbroadcastss 0x37c37(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,249,111,3,0 // vbroadcastss 0x36ff9(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,45,124,3,0 // vbroadcastss 0x37c2d(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,233,111,3,0 // vmulps 0x36fe9(%rip){1to8},%ymm2,%ymm2 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,108,56,89,21,29,124,3,0 // vmulps 0x37c1d(%rip){1to8},%ymm2,%ymm2 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,195,109,74,211,192 // vblendvps %ymm12,%ymm11,%ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,211 // vmaxps %ymm11,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,255,110,3,0 // vminps 0x36eff(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,51,123,3,0 // vminps 0x37b33(%rip){1to8},%ymm2,%ymm2 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3127,33 +3127,33 @@ _sk_parametric_a_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,68,111,3,0 // vbroadcastss 0x36f44(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,66,111,3,0 // vfmadd213ps 0x36f42(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,52,111,3,0 // vandps 0x36f34(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,138,110,3,0 // vorps 0x36e8a(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,40,111,3,0 // vfnmadd231ps 0x36f28(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,34,111,3,0 // vaddps 0x36f22(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,29,111,3,0 // vbroadcastss 0x36f1d(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,120,123,3,0 // vbroadcastss 0x37b78(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,118,123,3,0 // vfmadd213ps 0x37b76(%rip){1to8},%ymm13,%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,104,123,3,0 // vandps 0x37b68(%rip){1to8},%ymm10,%ymm10 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,190,122,3,0 // vorps 0x37abe(%rip){1to8},%ymm10,%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,92,123,3,0 // vfnmadd231ps 0x37b5c(%rip){1to8},%ymm10,%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,86,123,3,0 // vaddps 0x37b56(%rip){1to8},%ymm10,%ymm10 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,81,123,3,0 // vbroadcastss 0x37b51(%rip),%ymm13 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,253,110,3,0 // vaddps 0x36efd(%rip){1to8},%ymm3,%ymm3 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,29,247,110,3,0 // vfnmadd231ps 0x36ef7(%rip){1to8},%ymm10,%ymm3 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,242,110,3,0 // vbroadcastss 0x36ef2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,100,56,88,29,49,123,3,0 // vaddps 0x37b31(%rip){1to8},%ymm3,%ymm3 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,29,43,123,3,0 // vfnmadd231ps 0x37b2b(%rip){1to8},%ymm10,%ymm3 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,38,123,3,0 // vbroadcastss 0x37b26(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,232,110,3,0 // vbroadcastss 0x36ee8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,28,123,3,0 // vbroadcastss 0x37b1c(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,216,110,3,0 // vmulps 0x36ed8(%rip){1to8},%ymm3,%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,100,56,89,29,12,123,3,0 // vmulps 0x37b0c(%rip){1to8},%ymm3,%ymm3 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,195,101,74,219,192 // vblendvps %ymm12,%ymm11,%ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,193,100,95,219 // vmaxps %ymm11,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,238,109,3,0 // vminps 0x36dee(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,34,122,3,0 // vminps 0x37a22(%rip){1to8},%ymm3,%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3167,34 +3167,34 @@ _sk_gamma_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,124,40,194,199,0 // vcmpeqps %ymm7,%ymm0,%k0
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,92,110,3,0 // vbroadcastss 0x36e5c(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,87,110,3,0 // vbroadcastss 0x36e57(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,144,122,3,0 // vbroadcastss 0x37a90(%rip),%ymm11 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,139,122,3,0 // vbroadcastss 0x37a8b(%rip),%ymm12 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,169,109,3,0 // vbroadcastss 0x36da9(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,221,121,3,0 // vbroadcastss 0x379dd(%rip),%ymm13 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,197 // vorps %ymm13,%ymm0,%ymm0
- .byte 196,98,125,24,53,63,110,3,0 // vbroadcastss 0x36e3f(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,115,122,3,0 // vbroadcastss 0x37a73(%rip),%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,53,110,3,0 // vbroadcastss 0x36e35(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,105,122,3,0 // vbroadcastss 0x37a69(%rip),%ymm15 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,125,188,215 // vfnmadd231ps %ymm15,%ymm0,%ymm10
- .byte 98,226,125,40,24,5,42,110,3,0 // vbroadcastss 0x36e2a(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,94,122,3,0 // vbroadcastss 0x37a5e(%rip),%ymm16 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,124,40,88,192 // vaddps %ymm16,%ymm0,%ymm0
- .byte 98,226,125,40,24,13,30,110,3,0 // vbroadcastss 0x36e1e(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,82,122,3,0 // vbroadcastss 0x37a52(%rip),%ymm17 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,192 // vdivps %ymm0,%ymm17,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
.byte 98,177,124,40,89,194 // vmulps %ymm18,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,226,125,40,24,29,247,109,3,0 // vbroadcastss 0x36df7(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,43,122,3,0 // vbroadcastss 0x37a2b(%rip),%ymm19 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,124,40,88,195 // vaddps %ymm19,%ymm0,%ymm0
- .byte 98,226,125,40,24,37,235,109,3,0 // vbroadcastss 0x36deb(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,31,122,3,0 // vbroadcastss 0x37a1f(%rip),%ymm20 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,196 // vfnmadd231ps %ymm20,%ymm10,%ymm0
- .byte 98,226,125,40,24,45,223,109,3,0 // vbroadcastss 0x36ddf(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,19,122,3,0 // vbroadcastss 0x37a13(%rip),%ymm21 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,211,109,3,0 // vbroadcastss 0x36dd3(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,7,122,3,0 // vbroadcastss 0x37a07(%rip),%ymm22 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,195,109,3,0 // vbroadcastss 0x36dc3(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,247,121,3,0 // vbroadcastss 0x379f7(%rip),%ymm10 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,199,144 // vblendvps %ymm9,%ymm7,%ymm0,%ymm0
@@ -3254,34 +3254,34 @@ _sk_gamma_dst_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,114,108,3,0 // vbroadcastss 0x36c72(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,109,108,3,0 // vbroadcastss 0x36c6d(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,166,120,3,0 // vbroadcastss 0x378a6(%rip),%ymm11 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,161,120,3,0 // vbroadcastss 0x378a1(%rip),%ymm12 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,228 // vandps %ymm12,%ymm4,%ymm4
- .byte 196,98,125,24,45,191,107,3,0 // vbroadcastss 0x36bbf(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,243,119,3,0 // vbroadcastss 0x377f3(%rip),%ymm13 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,92,86,229 // vorps %ymm13,%ymm4,%ymm4
- .byte 196,98,125,24,53,85,108,3,0 // vbroadcastss 0x36c55(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,137,120,3,0 // vbroadcastss 0x37889(%rip),%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,75,108,3,0 // vbroadcastss 0x36c4b(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,127,120,3,0 // vbroadcastss 0x3787f(%rip),%ymm15 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,93,188,215 // vfnmadd231ps %ymm15,%ymm4,%ymm10
- .byte 98,226,125,40,24,5,64,108,3,0 // vbroadcastss 0x36c40(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,116,120,3,0 // vbroadcastss 0x37874(%rip),%ymm16 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,92,40,88,224 // vaddps %ymm16,%ymm4,%ymm4
- .byte 98,226,125,40,24,13,52,108,3,0 // vbroadcastss 0x36c34(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,104,120,3,0 // vbroadcastss 0x37868(%rip),%ymm17 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,228 // vdivps %ymm4,%ymm17,%ymm4
.byte 197,172,92,228 // vsubps %ymm4,%ymm10,%ymm4
.byte 98,177,92,40,89,226 // vmulps %ymm18,%ymm4,%ymm4
.byte 196,99,125,8,212,1 // vroundps $0x1,%ymm4,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,92,92,210 // vsubps %ymm10,%ymm4,%ymm10
- .byte 98,226,125,40,24,29,13,108,3,0 // vbroadcastss 0x36c0d(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,65,120,3,0 // vbroadcastss 0x37841(%rip),%ymm19 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,92,40,88,227 // vaddps %ymm19,%ymm4,%ymm4
- .byte 98,226,125,40,24,37,1,108,3,0 // vbroadcastss 0x36c01(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,53,120,3,0 // vbroadcastss 0x37835(%rip),%ymm20 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,228 // vfnmadd231ps %ymm20,%ymm10,%ymm4
- .byte 98,226,125,40,24,45,245,107,3,0 // vbroadcastss 0x36bf5(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,41,120,3,0 // vbroadcastss 0x37829(%rip),%ymm21 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,233,107,3,0 // vbroadcastss 0x36be9(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,29,120,3,0 // vbroadcastss 0x3781d(%rip),%ymm22 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,92,88,226 // vaddps %ymm10,%ymm4,%ymm4
- .byte 196,98,125,24,21,217,107,3,0 // vbroadcastss 0x36bd9(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,13,120,3,0 // vbroadcastss 0x3780d(%rip),%ymm10 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,92,89,226 // vmulps %ymm10,%ymm4,%ymm4
.byte 197,253,91,228 // vcvtps2dq %ymm4,%ymm4
.byte 196,227,93,74,231,144 // vblendvps %ymm9,%ymm7,%ymm4,%ymm4
@@ -3335,23 +3335,23 @@ HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,209,106,3,0 // vbroadcastss 0x36ad1(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,48,106,3,0 // vbroadcastss 0x36a30(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,195,106,3,0 // vbroadcastss 0x36ac3(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,5,119,3,0 // vbroadcastss 0x37705(%rip),%ymm8 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,100,118,3,0 // vbroadcastss 0x37664(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,247,118,3,0 // vbroadcastss 0x376f7(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,179,106,3,0 // vfmadd213ps 0x36ab3(%rip){1to8},%ymm0,%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 98,241,60,56,89,5,173,106,3,0 // vmulps 0x36aad(%rip){1to8},%ymm8,%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 98,242,125,56,152,13,167,106,3,0 // vfmadd132ps 0x36aa7(%rip){1to8},%ymm0,%ymm1 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 98,242,125,56,156,21,161,106,3,0 // vfnmadd132ps 0x36aa1(%rip){1to8},%ymm0,%ymm2 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 98,114,125,56,168,5,231,118,3,0 // vfmadd213ps 0x376e7(%rip){1to8},%ymm0,%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 98,241,60,56,89,5,225,118,3,0 // vmulps 0x376e1(%rip){1to8},%ymm8,%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 98,242,125,56,152,13,219,118,3,0 // vfmadd132ps 0x376db(%rip){1to8},%ymm0,%ymm1 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 98,242,125,56,156,21,213,118,3,0 // vfnmadd132ps 0x376d5(%rip){1to8},%ymm0,%ymm2 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,147,106,3,0 // vbroadcastss 0x36a93(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,199,118,3,0 // vbroadcastss 0x376c7(%rip),%ymm9 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,129,106,3,0 // vbroadcastss 0x36a81(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,181,118,3,0 // vbroadcastss 0x376b5(%rip),%ymm11 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,119,106,3,0 // vbroadcastss 0x36a77(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,171,118,3,0 // vbroadcastss 0x376ab(%rip),%ymm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -3368,8 +3368,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,28,106,3,0 // vmulps 0x36a1c(%rip){1to8},%ymm8,%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 98,241,108,56,89,21,22,106,3,0 // vmulps 0x36a16(%rip){1to8},%ymm2,%ymm2 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 98,241,60,56,89,5,80,118,3,0 // vmulps 0x37650(%rip){1to8},%ymm8,%ymm0 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 98,241,108,56,89,21,74,118,3,0 // vmulps 0x3764a(%rip){1to8},%ymm2,%ymm2 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3386,10 +3386,10 @@ _sk_load_a8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,49 // jne 393b <_sk_load_a8_skx+0x49>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,216,113,3,0 // vpand 0x371d8(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,249,219,5,216,126,3,0 // vpand 0x37ed8(%rip),%xmm0,%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,101,105,3,0 // vmulps 0x36965(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,153,117,3,0 // vmulps 0x37599(%rip){1to8},%ymm0,%ymm3 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3464,10 +3464,10 @@ _sk_load_a8_dst_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,49 // jne 3a45 <_sk_load_a8_dst_skx+0x49>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,206,112,3,0 // vpand 0x370ce(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,217,219,37,206,125,3,0 // vpand 0x37dce(%rip),%xmm4,%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,91,104,3,0 // vmulps 0x3685b(%rip){1to8},%ymm4,%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,61,143,116,3,0 // vmulps 0x3748f(%rip){1to8},%ymm4,%ymm7 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -3583,7 +3583,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,158,102,3,0 // vmulps 0x3669e(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,210,114,3,0 // vmulps 0x372d2(%rip){1to8},%ymm0,%ymm3 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3606,8 +3606,8 @@ _sk_store_a8_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 98,113,60,56,93,5,233,101,3,0 // vminps 0x365e9(%rip){1to8},%ymm8,%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 98,113,60,56,89,5,11,102,3,0 // vmulps 0x3660b(%rip){1to8},%ymm8,%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 98,113,60,56,93,5,29,114,3,0 // vminps 0x3721d(%rip){1to8},%ymm8,%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,113,60,56,89,5,63,114,3,0 // vmulps 0x3723f(%rip){1to8},%ymm8,%ymm8 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
@@ -3651,7 +3651,7 @@ _sk_store_a8_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe2003ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fc9d78>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fc9144>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -3672,12 +3672,12 @@ _sk_load_g8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 3d36 <_sk_load_g8_skx+0x4e>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,226,109,3,0 // vpand 0x36de2(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,249,219,5,226,122,3,0 // vpand 0x37ae2(%rip),%xmm0,%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,111,101,3,0 // vmulps 0x3656f(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,163,113,3,0 // vmulps 0x371a3(%rip){1to8},%ymm0,%ymm0 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,236,100,3,0 // vbroadcastss 0x364ec(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,32,113,3,0 // vbroadcastss 0x37120(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -3749,12 +3749,12 @@ _sk_load_g8_dst_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 3e46 <_sk_load_g8_dst_skx+0x4e>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,210,108,3,0 // vpand 0x36cd2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,217,219,37,210,121,3,0 // vpand 0x379d2(%rip),%xmm4,%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,95,100,3,0 // vmulps 0x3645f(%rip){1to8},%ymm4,%ymm4 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,37,147,112,3,0 // vmulps 0x37093(%rip){1to8},%ymm4,%ymm4 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,220,99,3,0 // vbroadcastss 0x363dc(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,16,112,3,0 // vbroadcastss 0x37010(%rip),%ymm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -3868,9 +3868,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,154,98,3,0 // vmulps 0x3629a(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,206,110,3,0 // vmulps 0x36ece(%rip){1to8},%ymm0,%ymm0 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,23,98,3,0 // vbroadcastss 0x36217(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,75,110,3,0 // vbroadcastss 0x36e4b(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -3894,17 +3894,17 @@ _sk_load_565_skx:
.byte 117,96 // jne 408d <_sk_load_565_skx+0x7b>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,82,98,3,0 // vpandd 0x36252(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,134,110,3,0 // vpandd 0x36e86(%rip){1to8},%ymm2,%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,72,98,3,0 // vmulps 0x36248(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,66,98,3,0 // vpandd 0x36242(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,124,110,3,0 // vmulps 0x36e7c(%rip){1to8},%ymm0,%ymm0 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,118,110,3,0 // vpandd 0x36e76(%rip){1to8},%ymm2,%ymm1 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,56,98,3,0 // vmulps 0x36238(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,50,98,3,0 // vpandd 0x36232(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,108,110,3,0 // vmulps 0x36e6c(%rip){1to8},%ymm1,%ymm1 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,102,110,3,0 // vpandd 0x36e66(%rip){1to8},%ymm2,%ymm2 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,40,98,3,0 // vmulps 0x36228(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,92,110,3,0 // vmulps 0x36e5c(%rip){1to8},%ymm2,%ymm2 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,141,97,3,0 // vbroadcastss 0x3618d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,193,109,3,0 // vbroadcastss 0x36dc1(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -3972,17 +3972,17 @@ _sk_load_565_dst_skx:
.byte 117,96 // jne 41bf <_sk_load_565_dst_skx+0x7b>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,32,97,3,0 // vpandd 0x36120(%rip){1to8},%ymm6,%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,77,56,219,37,84,109,3,0 // vpandd 0x36d54(%rip){1to8},%ymm6,%ymm4 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,22,97,3,0 // vmulps 0x36116(%rip){1to8},%ymm4,%ymm4 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,77,56,219,45,16,97,3,0 // vpandd 0x36110(%rip){1to8},%ymm6,%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,92,56,89,37,74,109,3,0 // vmulps 0x36d4a(%rip){1to8},%ymm4,%ymm4 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,77,56,219,45,68,109,3,0 // vpandd 0x36d44(%rip){1to8},%ymm6,%ymm5 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,6,97,3,0 // vmulps 0x36106(%rip){1to8},%ymm5,%ymm5 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,77,56,219,53,0,97,3,0 // vpandd 0x36100(%rip){1to8},%ymm6,%ymm6 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,84,56,89,45,58,109,3,0 // vmulps 0x36d3a(%rip){1to8},%ymm5,%ymm5 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,77,56,219,53,52,109,3,0 // vpandd 0x36d34(%rip){1to8},%ymm6,%ymm6 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,246,96,3,0 // vmulps 0x360f6(%rip){1to8},%ymm6,%ymm6 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,76,56,89,53,42,109,3,0 // vmulps 0x36d2a(%rip){1to8},%ymm6,%ymm6 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,91,96,3,0 // vbroadcastss 0x3605b(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,143,108,3,0 // vbroadcastss 0x36c8f(%rip),%ymm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -4090,17 +4090,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,59,95,3,0 // vpandd 0x35f3b(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,111,107,3,0 // vpandd 0x36b6f(%rip){1to8},%ymm2,%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,49,95,3,0 // vmulps 0x35f31(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,43,95,3,0 // vpandd 0x35f2b(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,101,107,3,0 // vmulps 0x36b65(%rip){1to8},%ymm0,%ymm0 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,95,107,3,0 // vpandd 0x36b5f(%rip){1to8},%ymm2,%ymm1 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,33,95,3,0 // vmulps 0x35f21(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,27,95,3,0 // vpandd 0x35f1b(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,85,107,3,0 // vmulps 0x36b55(%rip){1to8},%ymm1,%ymm1 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,79,107,3,0 // vpandd 0x36b4f(%rip){1to8},%ymm2,%ymm2 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,17,95,3,0 // vmulps 0x35f11(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,69,107,3,0 // vmulps 0x36b45(%rip){1to8},%ymm2,%ymm2 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,118,94,3,0 // vbroadcastss 0x35e76(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,170,106,3,0 // vbroadcastss 0x36aaa(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -4120,15 +4120,15 @@ _sk_store_565_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,69,94,3,0 // vbroadcastss 0x35e45(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,121,106,3,0 // vbroadcastss 0x36a79(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,39,95,3,0 // vbroadcastss 0x35f27(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,91,107,3,0 // vbroadcastss 0x36b5b(%rip),%ymm11 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 98,113,28,56,89,37,8,95,3,0 // vmulps 0x35f08(%rip){1to8},%ymm12,%ymm12 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 98,113,28,56,89,37,60,107,3,0 // vmulps 0x36b3c(%rip){1to8},%ymm12,%ymm12 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
.byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
@@ -4202,18 +4202,18 @@ _sk_load_4444_skx:
.byte 117,111 // jne 4556 <_sk_load_4444_skx+0x8a>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,20,94,3,0 // vpandd 0x35e14(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,72,106,3,0 // vpandd 0x36a48(%rip){1to8},%ymm3,%ymm0 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,10,94,3,0 // vmulps 0x35e0a(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,4,94,3,0 // vpandd 0x35e04(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,62,106,3,0 // vmulps 0x36a3e(%rip){1to8},%ymm0,%ymm0 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,56,106,3,0 // vpandd 0x36a38(%rip){1to8},%ymm3,%ymm1 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,250,93,3,0 // vmulps 0x35dfa(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,244,93,3,0 // vpandd 0x35df4(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,46,106,3,0 // vmulps 0x36a2e(%rip){1to8},%ymm1,%ymm1 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,40,106,3,0 // vpandd 0x36a28(%rip){1to8},%ymm3,%ymm2 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,234,93,3,0 // vmulps 0x35dea(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,228,93,3,0 // vpandd 0x35de4(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,30,106,3,0 // vmulps 0x36a1e(%rip){1to8},%ymm2,%ymm2 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,24,106,3,0 // vpandd 0x36a18(%rip){1to8},%ymm3,%ymm3 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,218,93,3,0 // vmulps 0x35dda(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,14,106,3,0 // vmulps 0x36a0e(%rip){1to8},%ymm3,%ymm3 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4283,18 +4283,18 @@ _sk_load_4444_dst_skx:
.byte 117,111 // jne 4696 <_sk_load_4444_dst_skx+0x8a>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,212,92,3,0 // vpandd 0x35cd4(%rip){1to8},%ymm7,%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,69,56,219,37,8,105,3,0 // vpandd 0x36908(%rip){1to8},%ymm7,%ymm4 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,202,92,3,0 // vmulps 0x35cca(%rip){1to8},%ymm4,%ymm4 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,69,56,219,45,196,92,3,0 // vpandd 0x35cc4(%rip){1to8},%ymm7,%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,92,56,89,37,254,104,3,0 // vmulps 0x368fe(%rip){1to8},%ymm4,%ymm4 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,69,56,219,45,248,104,3,0 // vpandd 0x368f8(%rip){1to8},%ymm7,%ymm5 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,186,92,3,0 // vmulps 0x35cba(%rip){1to8},%ymm5,%ymm5 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,69,56,219,53,180,92,3,0 // vpandd 0x35cb4(%rip){1to8},%ymm7,%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,84,56,89,45,238,104,3,0 // vmulps 0x368ee(%rip){1to8},%ymm5,%ymm5 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,69,56,219,53,232,104,3,0 // vpandd 0x368e8(%rip){1to8},%ymm7,%ymm6 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,170,92,3,0 // vmulps 0x35caa(%rip){1to8},%ymm6,%ymm6 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,69,56,219,61,164,92,3,0 // vpandd 0x35ca4(%rip){1to8},%ymm7,%ymm7 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,76,56,89,53,222,104,3,0 // vmulps 0x368de(%rip){1to8},%ymm6,%ymm6 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,69,56,219,61,216,104,3,0 // vpandd 0x368d8(%rip){1to8},%ymm7,%ymm7 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,154,92,3,0 // vmulps 0x35c9a(%rip){1to8},%ymm7,%ymm7 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,68,56,89,61,206,104,3,0 // vmulps 0x368ce(%rip){1to8},%ymm7,%ymm7 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4403,18 +4403,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,223,90,3,0 // vpandd 0x35adf(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,19,103,3,0 // vpandd 0x36713(%rip){1to8},%ymm3,%ymm0 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,213,90,3,0 // vmulps 0x35ad5(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,207,90,3,0 // vpandd 0x35acf(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,9,103,3,0 // vmulps 0x36709(%rip){1to8},%ymm0,%ymm0 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,3,103,3,0 // vpandd 0x36703(%rip){1to8},%ymm3,%ymm1 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,197,90,3,0 // vmulps 0x35ac5(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,191,90,3,0 // vpandd 0x35abf(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,249,102,3,0 // vmulps 0x366f9(%rip){1to8},%ymm1,%ymm1 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,243,102,3,0 // vpandd 0x366f3(%rip){1to8},%ymm3,%ymm2 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,181,90,3,0 // vmulps 0x35ab5(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,175,90,3,0 // vpandd 0x35aaf(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,233,102,3,0 // vmulps 0x366e9(%rip){1to8},%ymm2,%ymm2 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,227,102,3,0 // vpandd 0x366e3(%rip){1to8},%ymm3,%ymm3 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,165,90,3,0 // vmulps 0x35aa5(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,217,102,3,0 // vmulps 0x366d9(%rip){1to8},%ymm3,%ymm3 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -4435,9 +4435,9 @@ _sk_store_4444_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,94,89,3,0 // vbroadcastss 0x3595e(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,146,101,3,0 // vbroadcastss 0x36592(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,104,90,3,0 // vbroadcastss 0x35a68(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,156,102,3,0 // vbroadcastss 0x3669c(%rip),%ymm11 # 3af64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -4526,7 +4526,7 @@ _sk_load_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,134,88,3,0 // vbroadcastss 0x35886(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,186,100,3,0 // vbroadcastss 0x364ba(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4613,7 +4613,7 @@ _sk_load_8888_dst_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,66,87,3,0 // vbroadcastss 0x35742(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,118,99,3,0 // vbroadcastss 0x36376(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -4707,7 +4707,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,213,85,3,0 // vbroadcastss 0x355d5(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,9,98,3,0 // vbroadcastss 0x36209(%rip),%ymm3 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4736,9 +4736,9 @@ _sk_store_8888_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,245,84,3,0 // vbroadcastss 0x354f5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,41,97,3,0 // vbroadcastss 0x36129(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,19,85,3,0 // vbroadcastss 0x35513(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,71,97,3,0 // vbroadcastss 0x36147(%rip),%ymm11 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -4826,7 +4826,7 @@ _sk_load_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,30,84,3,0 // vbroadcastss 0x3541e(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,82,96,3,0 // vbroadcastss 0x36052(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4913,7 +4913,7 @@ _sk_load_bgra_dst_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,218,82,3,0 // vbroadcastss 0x352da(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,14,95,3,0 // vbroadcastss 0x35f0e(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -5007,7 +5007,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,109,81,3,0 // vbroadcastss 0x3516d(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,161,93,3,0 // vbroadcastss 0x35da1(%rip),%ymm3 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -5036,9 +5036,9 @@ _sk_store_bgra_skx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,141,80,3,0 // vbroadcastss 0x3508d(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,193,92,3,0 // vbroadcastss 0x35cc1(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,171,80,3,0 // vbroadcastss 0x350ab(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,223,92,3,0 // vbroadcastss 0x35cdf(%rip),%ymm11 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -5363,7 +5363,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,251,75,3,0 // vbroadcastss 0x34bfb(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,47,88,3,0 // vbroadcastss 0x3582f(%rip),%ymm10 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -5454,7 +5454,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,109,74,3,0 // vbroadcastss 0x34a6d(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,161,86,3,0 // vbroadcastss 0x356a1(%rip),%ymm9 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -5470,7 +5470,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,141,73,3,0 // vbroadcastss 0x3498d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,193,85,3,0 // vbroadcastss 0x355c1(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
@@ -5548,9 +5548,9 @@ _sk_store_u16_be_skx:
.byte 73,99,193 // movslq %r9d,%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,49,72,3,0 // vbroadcastss 0x34831(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,101,84,3,0 // vbroadcastss 0x35465(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,63,73,3,0 // vbroadcastss 0x3493f(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,115,85,3,0 // vbroadcastss 0x35573(%rip),%ymm11 # 3af68 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,57,204,1 // vextracti128 $0x1,%ymm9,%xmm12
@@ -5896,7 +5896,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,147,66,3,0 // vmulss 0x34293(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,199,78,3,0 // vmulss 0x34ec7(%rip),%xmm9,%xmm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -5919,7 +5919,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,66,66,3,0 // vmulss 0x34242(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,118,78,3,0 // vmulss 0x34e76(%rip),%xmm9,%xmm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -5937,7 +5937,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,9,66,3,0 // vminps 0x34209(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,61,78,3,0 // vminps 0x34e3d(%rip){1to8},%ymm0,%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5949,7 +5949,7 @@ _sk_repeat_x_1_skx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,231,65,3,0 // vminps 0x341e7(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,27,78,3,0 // vminps 0x34e1b(%rip){1to8},%ymm0,%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5957,9 +5957,9 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,242,65,3,0 // vbroadcastss 0x341f2(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,38,78,3,0 // vbroadcastss 0x34e26(%rip),%ymm8 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,199,65,3,0 // vmulps 0x341c7(%rip){1to8},%ymm0,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,124,56,89,13,251,77,3,0 // vmulps 0x34dfb(%rip){1to8},%ymm0,%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
@@ -5968,7 +5968,7 @@ _sk_mirror_x_1_skx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,155,65,3,0 // vminps 0x3419b(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,207,77,3,0 // vminps 0x34dcf(%rip){1to8},%ymm0,%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5976,9 +5976,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,173,66,3,0 // vmulps 0x342ad(%rip){1to8},%ymm1,%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 98,242,125,56,184,29,167,66,3,0 // vfmadd231ps 0x342a7(%rip){1to8},%ymm0,%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 98,242,109,56,184,29,161,66,3,0 // vfmadd231ps 0x342a1(%rip){1to8},%ymm2,%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 98,241,116,56,89,29,225,78,3,0 // vmulps 0x34ee1(%rip){1to8},%ymm1,%ymm3 # 3af6c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 98,242,125,56,184,29,219,78,3,0 // vfmadd231ps 0x34edb(%rip){1to8},%ymm0,%ymm3 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 98,242,109,56,184,29,213,78,3,0 // vfmadd231ps 0x34ed5(%rip){1to8},%ymm2,%ymm3 # 3af74 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -6227,7 +6227,7 @@ _sk_gradient_skx:
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,170,61,3,0 // vbroadcastss 0x33daa(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,222,73,3,0 // vbroadcastss 0x349de(%rip),%ymm2 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -6327,24 +6327,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,44,61,3,0 // vbroadcastss 0x33d2c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 98,114,29,56,168,45,38,61,3,0 // vfmadd213ps 0x33d26(%rip){1to8},%ymm12,%ymm13 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 98,114,29,56,168,45,32,61,3,0 // vfmadd213ps 0x33d20(%rip){1to8},%ymm12,%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 98,114,29,56,168,45,26,61,3,0 // vfmadd213ps 0x33d1a(%rip){1to8},%ymm12,%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,96,73,3,0 // vbroadcastss 0x34960(%rip),%ymm13 # 3af78 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 98,114,29,56,168,45,90,73,3,0 // vfmadd213ps 0x3495a(%rip){1to8},%ymm12,%ymm13 # 3af7c <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 98,114,29,56,168,45,84,73,3,0 // vfmadd213ps 0x34954(%rip){1to8},%ymm12,%ymm13 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 98,114,29,56,168,45,78,73,3,0 // vfmadd213ps 0x3494e(%rip){1to8},%ymm12,%ymm13 # 3af84 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,3,61,3,0 // vbroadcastss 0x33d03(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,55,73,3,0 // vbroadcastss 0x34937(%rip),%ymm10 # 3af88 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,162,59,3,0 // vbroadcastss 0x33ba2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,214,71,3,0 // vbroadcastss 0x347d6(%rip),%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,133,59,3,0 // vbroadcastss 0x33b85(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,185,71,3,0 // vbroadcastss 0x347b9(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -6373,19 +6373,19 @@ _sk_xy_to_2pt_conical_quadratic_first_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,109,60,3,0 // vmulps 0x33c6d(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,161,72,3,0 // vmulps 0x348a1(%rip){1to8},%ymm10,%ymm10 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,80,60,3,0 // vmulps 0x33c50(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,132,72,3,0 // vmulps 0x34884(%rip){1to8},%ymm8,%ymm8 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 98,113,60,56,89,5,230,58,3,0 // vmulps 0x33ae6(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,60,56,89,5,26,71,3,0 // vmulps 0x3471a(%rip){1to8},%ymm8,%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6400,19 +6400,19 @@ _sk_xy_to_2pt_conical_quadratic_second_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,252,59,3,0 // vmulps 0x33bfc(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,48,72,3,0 // vmulps 0x34830(%rip){1to8},%ymm10,%ymm10 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,223,59,3,0 // vmulps 0x33bdf(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,19,72,3,0 // vmulps 0x34813(%rip){1to8},%ymm8,%ymm8 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 98,113,44,56,87,13,198,59,3,0 // vxorps 0x33bc6(%rip){1to8},%ymm10,%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 98,113,60,56,89,5,112,58,3,0 // vmulps 0x33a70(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,44,56,87,13,250,71,3,0 // vxorps 0x347fa(%rip){1to8},%ymm10,%ymm9 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,113,60,56,89,5,164,70,3,0 // vmulps 0x346a4(%rip){1to8},%ymm8,%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6427,13 +6427,13 @@ _sk_xy_to_2pt_conical_linear_skx:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 98,113,52,56,89,13,136,59,3,0 // vmulps 0x33b88(%rip){1to8},%ymm9,%ymm9 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,52,56,89,13,188,71,3,0 // vmulps 0x347bc(%rip){1to8},%ymm9,%ymm9 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,241,124,56,87,5,111,59,3,0 // vxorps 0x33b6f(%rip){1to8},%ymm0,%ymm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,241,124,56,87,5,163,71,3,0 // vxorps 0x347a3(%rip){1to8},%ymm0,%ymm0 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6475,7 +6475,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,176,57,3,0 // vbroadcastss 0x339b0(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,228,69,3,0 // vbroadcastss 0x345e4(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -6510,8 +6510,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,133,58,3,0 // vaddps 0x33a85(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,48,57,3,0 // vbroadcastss 0x33930(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,185,70,3,0 // vaddps 0x346b9(%rip){1to8},%ymm0,%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,100,69,3,0 // vbroadcastss 0x34564(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6524,7 +6524,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,0,57,3,0 // vaddps 0x33900(%rip){1to8},%ymm0,%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,124,56,88,5,52,69,3,0 // vaddps 0x34534(%rip){1to8},%ymm0,%ymm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6535,8 +6535,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,51,58,3,0 // vaddps 0x33a33(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,222,56,3,0 // vbroadcastss 0x338de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,103,70,3,0 // vaddps 0x34667(%rip){1to8},%ymm1,%ymm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,18,69,3,0 // vbroadcastss 0x34512(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6549,7 +6549,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,173,56,3,0 // vaddps 0x338ad(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,225,68,3,0 // vaddps 0x344e1(%rip){1to8},%ymm1,%ymm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6560,12 +6560,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,229,57,3,0 // vaddps 0x339e5(%rip){1to8},%ymm0,%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,140,56,3,0 // vbroadcastss 0x3388c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,25,70,3,0 // vaddps 0x34619(%rip){1to8},%ymm0,%ymm0 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,192,68,3,0 // vbroadcastss 0x344c0(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,202,57,3,0 // vbroadcastss 0x339ca(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,224,56,3,0 // vfmadd213ps 0x338e0(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,254,69,3,0 // vbroadcastss 0x345fe(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,20,69,3,0 // vfmadd213ps 0x34514(%rip){1to8},%ymm8,%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6577,13 +6577,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,151,57,3,0 // vaddps 0x33997(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,66,56,3,0 // vbroadcastss 0x33842(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,203,69,3,0 // vaddps 0x345cb(%rip){1to8},%ymm0,%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,118,68,3,0 // vbroadcastss 0x34476(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,137,57,3,0 // vbroadcastss 0x33989(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,131,57,3,0 // vfmadd213ps 0x33983(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,25,56,3,0 // vfmadd213ps 0x33819(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,115,57,3,0 // vfmadd213ps 0x33973(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,189,69,3,0 // vbroadcastss 0x345bd(%rip),%ymm9 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,183,69,3,0 // vfmadd213ps 0x345b7(%rip){1to8},%ymm8,%ymm9 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,77,68,3,0 // vfmadd213ps 0x3444d(%rip){1to8},%ymm8,%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,167,69,3,0 // vfmadd213ps 0x345a7(%rip){1to8},%ymm8,%ymm9 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6593,13 +6593,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,248,55,3,0 // vbroadcastss 0x337f8(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,44,68,3,0 // vbroadcastss 0x3442c(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,63,57,3,0 // vbroadcastss 0x3393f(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,57,57,3,0 // vfmadd213ps 0x33939(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,115,69,3,0 // vbroadcastss 0x34573(%rip),%ymm10 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,109,69,3,0 // vfmadd213ps 0x3456d(%rip){1to8},%ymm9,%ymm10 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,46,57,3,0 // vfmadd213ps 0x3392e(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,98,69,3,0 // vfmadd213ps 0x34562(%rip){1to8},%ymm9,%ymm10 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6611,10 +6611,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,6,57,3,0 // vaddps 0x33906(%rip){1to8},%ymm0,%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,124,56,88,5,58,69,3,0 // vaddps 0x3453a(%rip){1to8},%ymm0,%ymm0 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,240,56,3,0 // vbroadcastss 0x338f0(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,6,56,3,0 // vfmadd213ps 0x33806(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,36,69,3,0 // vbroadcastss 0x34524(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,58,68,3,0 // vfmadd213ps 0x3443a(%rip){1to8},%ymm8,%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6626,12 +6626,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,192,56,3,0 // vaddps 0x338c0(%rip){1to8},%ymm1,%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,103,55,3,0 // vbroadcastss 0x33767(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,244,68,3,0 // vaddps 0x344f4(%rip){1to8},%ymm1,%ymm1 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,155,67,3,0 // vbroadcastss 0x3439b(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,165,56,3,0 // vbroadcastss 0x338a5(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,187,55,3,0 // vfmadd213ps 0x337bb(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,217,68,3,0 // vbroadcastss 0x344d9(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,239,67,3,0 // vfmadd213ps 0x343ef(%rip){1to8},%ymm8,%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6643,13 +6643,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,113,56,3,0 // vaddps 0x33871(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,28,55,3,0 // vbroadcastss 0x3371c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,165,68,3,0 // vaddps 0x344a5(%rip){1to8},%ymm1,%ymm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,80,67,3,0 // vbroadcastss 0x34350(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,99,56,3,0 // vbroadcastss 0x33863(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,93,56,3,0 // vfmadd213ps 0x3385d(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,243,54,3,0 // vfmadd213ps 0x336f3(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,77,56,3,0 // vfmadd213ps 0x3384d(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,151,68,3,0 // vbroadcastss 0x34497(%rip),%ymm9 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,145,68,3,0 // vfmadd213ps 0x34491(%rip){1to8},%ymm8,%ymm9 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,39,67,3,0 // vfmadd213ps 0x34327(%rip){1to8},%ymm8,%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,129,68,3,0 // vfmadd213ps 0x34481(%rip){1to8},%ymm8,%ymm9 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6659,13 +6659,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,210,54,3,0 // vbroadcastss 0x336d2(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,6,67,3,0 // vbroadcastss 0x34306(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,24,56,3,0 // vbroadcastss 0x33818(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,18,56,3,0 // vfmadd213ps 0x33812(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,76,68,3,0 // vbroadcastss 0x3444c(%rip),%ymm10 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,70,68,3,0 // vfmadd213ps 0x34446(%rip){1to8},%ymm9,%ymm10 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,7,56,3,0 // vfmadd213ps 0x33807(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,59,68,3,0 // vfmadd213ps 0x3443b(%rip){1to8},%ymm9,%ymm10 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6677,10 +6677,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,222,55,3,0 // vaddps 0x337de(%rip){1to8},%ymm1,%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,116,56,88,13,18,68,3,0 // vaddps 0x34412(%rip){1to8},%ymm1,%ymm1 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,200,55,3,0 // vbroadcastss 0x337c8(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,222,54,3,0 // vfmadd213ps 0x336de(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,252,67,3,0 // vbroadcastss 0x343fc(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,18,67,3,0 // vfmadd213ps 0x34312(%rip){1to8},%ymm8,%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6806,7 +6806,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,210,53,3,0 // vpbroadcastd 0x335d2(%rip),%ymm27 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,98,125,40,88,29,6,66,3,0 // vpbroadcastd 0x34206(%rip),%ymm27 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -6819,9 +6819,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,136,53,3,0 // vbroadcastss 0x33588(%rip),%ymm10 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,21,188,65,3,0 // vbroadcastss 0x341bc(%rip),%ymm10 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,32,52,3,0 // vpbroadcastd 0x33420(%rip),%ymm16 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,5,84,64,3,0 // vpbroadcastd 0x34054(%rip),%ymm16 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -7061,7 +7061,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,100,48,3,0 // vpbroadcastd 0x33064(%rip),%ymm16 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,226,125,40,88,5,152,60,3,0 // vpbroadcastd 0x33c98(%rip),%ymm16 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -7073,9 +7073,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,22,48,3,0 // vbroadcastss 0x33016(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,74,60,3,0 // vbroadcastss 0x33c4a(%rip),%ymm0 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,174,46,3,0 // vpbroadcastd 0x32eae(%rip),%ymm17 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,13,226,58,3,0 // vpbroadcastd 0x33ae2(%rip),%ymm17 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -7480,7 +7480,7 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,76,37,3,0 // vbroadcastss 0x3254c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,128,49,3,0 // vbroadcastss 0x33180(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
@@ -7492,16 +7492,117 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,142,38,3,0 // vbroadcastss 0x3268e(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 98,242,101,56,168,5,136,38,3,0 // vfmadd213ps 0x32688(%rip){1to8},%ymm3,%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 98,242,101,56,168,5,130,38,3,0 // vfmadd213ps 0x32682(%rip){1to8},%ymm3,%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- .byte 98,242,101,56,168,5,124,38,3,0 // vfmadd213ps 0x3267c(%rip){1to8},%ymm3,%ymm0 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- .byte 98,242,101,56,168,5,118,38,3,0 // vfmadd213ps 0x32676(%rip){1to8},%ymm3,%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,194,50,3,0 // vbroadcastss 0x332c2(%rip),%ymm0 # 3afb8 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 98,242,101,56,168,5,188,50,3,0 // vfmadd213ps 0x332bc(%rip){1to8},%ymm3,%ymm0 # 3afbc <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 98,242,101,56,168,5,182,50,3,0 // vfmadd213ps 0x332b6(%rip){1to8},%ymm3,%ymm0 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 98,242,101,56,168,5,176,50,3,0 // vfmadd213ps 0x332b0(%rip){1to8},%ymm3,%ymm0 # 3afc4 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 98,242,101,56,168,5,170,50,3,0 // vfmadd213ps 0x332aa(%rip){1to8},%ymm3,%ymm0 # 3afc8 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
.byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bilerp_clamp_8888_skx
+.globl _sk_bilerp_clamp_8888_skx
+FUNCTION(_sk_bilerp_clamp_8888_skx)
+_sk_bilerp_clamp_8888_skx:
+ .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
+ .byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
+ .byte 197,252,17,108,36,136 // vmovups %ymm5,-0x78(%rsp)
+ .byte 98,225,124,40,40,244 // vmovaps %ymm4,%ymm22
+ .byte 98,97,124,40,40,249 // vmovaps %ymm1,%ymm31
+ .byte 196,226,125,24,21,243,48,3,0 // vbroadcastss 0x330f3(%rip),%ymm2 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,252,88,218 // vaddps %ymm2,%ymm0,%ymm3
+ .byte 196,227,125,8,227,1 // vroundps $0x1,%ymm3,%ymm4
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,241,4,32,88,210 // vaddps %ymm2,%ymm31,%ymm2
+ .byte 196,227,125,8,234,1 // vroundps $0x1,%ymm2,%ymm5
+ .byte 197,100,92,212 // vsubps %ymm4,%ymm3,%ymm10
+ .byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1
+ .byte 196,226,125,24,21,206,48,3,0 // vbroadcastss 0x330ce(%rip),%ymm2 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,108,92,226 // vsubps %ymm10,%ymm2,%ymm12
+ .byte 98,225,124,40,40,217 // vmovaps %ymm1,%ymm19
+ .byte 98,225,108,40,92,233 // vsubps %ymm1,%ymm2,%ymm21
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,109,254,243 // vpaddd %ymm3,%ymm2,%ymm14
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 98,225,109,40,254,211 // vpaddd %ymm3,%ymm2,%ymm18
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 98,226,125,40,88,64,2 // vpbroadcastd 0x8(%rax),%ymm16
+ .byte 98,225,126,8,16,13,219,49,3,0 // vmovss 0x331db(%rip),%xmm17 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
+ .byte 197,192,87,255 // vxorps %xmm7,%xmm7,%xmm7
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 98,226,125,40,24,37,239,48,3,0 // vbroadcastss 0x330ef(%rip),%ymm20 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 197,250,16,53,111,48,3,0 // vmovss 0x3306f(%rip),%xmm6 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,45,99,48,3,0 // vmovss 0x33063(%rip),%xmm5 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
+ .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 98,33,124,8,40,201 // vmovaps %xmm17,%xmm25
+ .byte 98,146,125,40,24,225 // vbroadcastss %xmm25,%ymm4
+ .byte 98,145,92,40,88,231 // vaddps %ymm31,%ymm4,%ymm4
+ .byte 197,148,95,228 // vmaxps %ymm4,%ymm13,%ymm4
+ .byte 98,97,124,8,46,207 // vucomiss %xmm7,%xmm25
+ .byte 98,177,124,40,40,203 // vmovaps %ymm19,%ymm1
+ .byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
+ .byte 119,12 // ja 7e2d <_sk_bilerp_clamp_8888_skx+0xff>
+ .byte 98,177,124,40,40,205 // vmovaps %ymm21,%ymm1
+ .byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
+ .byte 98,177,92,40,93,226 // vminps %ymm18,%ymm4,%ymm4
+ .byte 197,254,91,228 // vcvttps2dq %ymm4,%ymm4
+ .byte 98,98,125,32,64,196 // vpmulld %ymm4,%ymm16,%ymm24
+ .byte 98,177,124,8,40,225 // vmovaps %xmm17,%xmm4
+ .byte 98,98,125,40,24,212 // vbroadcastss %xmm4,%ymm26
+ .byte 98,97,44,32,88,208 // vaddps %ymm0,%ymm26,%ymm26
+ .byte 98,1,20,40,95,210 // vmaxps %ymm26,%ymm13,%ymm26
+ .byte 98,65,44,32,93,214 // vminps %ymm14,%ymm26,%ymm26
+ .byte 98,1,126,40,91,210 // vcvttps2dq %ymm26,%ymm26
+ .byte 98,17,61,32,254,218 // vpaddd %ymm26,%ymm24,%ymm11
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,65,5,239,255 // vpxor %ymm15,%ymm15,%ymm15
+ .byte 196,2,117,144,60,152 // vpgatherdd %ymm1,(%r8,%ymm11,4),%ymm15
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,209,127,169,111,207 // vmovdqu8 %ymm15,%ymm1{%k1}{z}
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,33,116,40,89,212 // vmulps %ymm20,%ymm1,%ymm26
+ .byte 196,193,117,114,215,8 // vpsrld $0x8,%ymm15,%ymm1
+ .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,33,116,40,89,220 // vmulps %ymm20,%ymm1,%ymm27
+ .byte 196,193,117,114,215,16 // vpsrld $0x10,%ymm15,%ymm1
+ .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,33,116,40,89,228 // vmulps %ymm20,%ymm1,%ymm28
+ .byte 196,193,117,114,215,24 // vpsrld $0x18,%ymm15,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,33,116,40,89,236 // vmulps %ymm20,%ymm1,%ymm29
+ .byte 197,248,46,231 // vucomiss %xmm7,%xmm4
+ .byte 98,65,124,40,40,242 // vmovaps %ymm10,%ymm30
+ .byte 119,6 // ja 7ed8 <_sk_bilerp_clamp_8888_skx+0x1aa>
+ .byte 98,65,124,40,40,244 // vmovaps %ymm12,%ymm30
+ .byte 98,145,68,32,89,206 // vmulps %ymm30,%ymm23,%ymm1
+ .byte 98,18,117,40,184,202 // vfmadd231ps %ymm26,%ymm1,%ymm9
+ .byte 98,18,117,40,184,195 // vfmadd231ps %ymm27,%ymm1,%ymm8
+ .byte 98,146,117,40,184,212 // vfmadd231ps %ymm28,%ymm1,%ymm2
+ .byte 98,146,117,40,184,221 // vfmadd231ps %ymm29,%ymm1,%ymm3
+ .byte 197,218,88,230 // vaddss %xmm6,%xmm4,%xmm4
+ .byte 197,248,46,236 // vucomiss %xmm4,%xmm5
+ .byte 15,131,63,255,255,255 // jae 7e43 <_sk_bilerp_clamp_8888_skx+0x115>
+ .byte 98,97,54,0,88,206 // vaddss %xmm6,%xmm25,%xmm25
+ .byte 98,145,124,8,46,233 // vucomiss %xmm25,%xmm5
+ .byte 15,131,231,254,255,255 // jae 7dfd <_sk_bilerp_clamp_8888_skx+0xcf>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
+ .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
+ .byte 98,177,124,40,40,230 // vmovaps %ymm22,%ymm4
+ .byte 197,252,16,108,36,136 // vmovups -0x78(%rsp),%ymm5
+ .byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
+ .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
+ .byte 255,224 // jmpq *%rax
.byte 144 // nop
.byte 144 // nop
@@ -7526,13 +7627,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 7dfa <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 8006 <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 7dbc <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 7fc8 <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -7551,10 +7652,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 7d7d <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 7f89 <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 7ded <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 7ff9 <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7568,7 +7669,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 7d6f <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 7f7b <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -7597,10 +7698,10 @@ _sk_seed_shader_hsw:
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,222,35,3,0 // vbroadcastss 0x323de(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,6,46,3,0 // vbroadcastss 0x32e06(%rip),%ymm2 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,211,35,3,0 // vbroadcastss 0x323d3(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,251,45,3,0 // vbroadcastss 0x32dfb(%rip),%ymm2 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -7615,17 +7716,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,114,37,3,0 // vpaddd 0x32572(%rip),%ymm8,%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x478>
+ .byte 197,61,254,5,166,47,3,0 // vpaddd 0x32fa6(%rip),%ymm8,%ymm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x484>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,151,35,3,0 // vpbroadcastd 0x32397(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,191,45,3,0 // vpbroadcastd 0x32dbf(%rip),%ymm10 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,124,35,3,0 // vpbroadcastd 0x3237c(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,119,35,3,0 // vpbroadcastd 0x32377(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,164,45,3,0 // vpbroadcastd 0x32da4(%rip),%ymm12 # 3ae54 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,159,45,3,0 // vpbroadcastd 0x32d9f(%rip),%ymm13 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -7640,8 +7741,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,41,35,3,0 // vbroadcastss 0x32329(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 196,98,125,24,21,36,35,3,0 // vbroadcastss 0x32324(%rip),%ymm10 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,81,45,3,0 // vbroadcastss 0x32d51(%rip),%ymm9 # 3ae5c <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,21,76,45,3,0 // vbroadcastss 0x32d4c(%rip),%ymm10 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -7675,7 +7776,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,172,34,3,0 // vbroadcastss 0x322ac(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,212,44,3,0 // vbroadcastss 0x32cd4(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7686,7 +7787,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,147,34,3,0 // vbroadcastss 0x32293(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,187,44,3,0 // vbroadcastss 0x32cbb(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -7732,7 +7833,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,50,34,3,0 // vbroadcastss 0x32232(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,90,44,3,0 // vbroadcastss 0x32c5a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -7748,7 +7849,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,1,34,3,0 // vbroadcastss 0x32201(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,41,44,3,0 // vbroadcastss 0x32c29(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -7787,7 +7888,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,164,33,3,0 // vbroadcastss 0x321a4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,204,43,3,0 // vbroadcastss 0x32bcc(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -7800,7 +7901,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,131,33,3,0 // vbroadcastss 0x32183(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,171,43,3,0 // vbroadcastss 0x32bab(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -7813,7 +7914,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,98,33,3,0 // vbroadcastss 0x32162(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,138,43,3,0 // vbroadcastss 0x32b8a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -7826,7 +7927,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,61,33,3,0 // vbroadcastss 0x3213d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,101,43,3,0 // vbroadcastss 0x32b65(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -7850,7 +7951,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,4,33,3,0 // vbroadcastss 0x32104(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,44,43,3,0 // vbroadcastss 0x32b2c(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7873,7 +7974,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,179,32,3,0 // vbroadcastss 0x320b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,219,42,3,0 // vbroadcastss 0x32adb(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -7903,7 +8004,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,94,32,3,0 // vbroadcastss 0x3205e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,134,42,3,0 // vbroadcastss 0x32a86(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7937,7 +8038,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,226,31,3,0 // vbroadcastss 0x31fe2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,10,42,3,0 // vbroadcastss 0x32a0a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7962,7 +8063,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,141,31,3,0 // vbroadcastss 0x31f8d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,181,41,3,0 // vbroadcastss 0x329b5(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7990,7 +8091,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,44,31,3,0 // vbroadcastss 0x31f2c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,84,41,3,0 // vbroadcastss 0x32954(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8012,7 +8113,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,230,30,3,0 // vbroadcastss 0x31ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,14,41,3,0 // vbroadcastss 0x3290e(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8022,7 +8123,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,208,30,3,0 // vbroadcastss 0x31ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,248,40,3,0 // vbroadcastss 0x328f8(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -8080,7 +8181,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,224,29,3,0 // vbroadcastss 0x31de0(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,8,40,3,0 // vbroadcastss 0x32808(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -8133,7 +8234,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,250,28,3,0 // vbroadcastss 0x31cfa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,34,39,3,0 // vbroadcastss 0x32722(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8184,7 +8285,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,46,28,3,0 // vbroadcastss 0x31c2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,86,38,3,0 // vbroadcastss 0x32656(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8245,10 +8346,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,73,27,3,0 // vbroadcastss 0x31b49(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,113,37,3,0 // vbroadcastss 0x32571(%rip),%ymm11 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,58,27,3,0 // vbroadcastss 0x31b3a(%rip),%ymm12 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,37,98,37,3,0 // vbroadcastss 0x32562(%rip),%ymm12 # 3ae68 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -8258,7 +8359,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,233,26,3,0 // vbroadcastss 0x31ae9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,17,37,3,0 // vbroadcastss 0x32511(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -8371,11 +8472,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,1,25,3,0 // vbroadcastss 0x31901(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,252,24,3,0 // vbroadcastss 0x318fc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,41,35,3,0 // vbroadcastss 0x32329(%rip),%ymm14 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,36,35,3,0 // vbroadcastss 0x32324(%rip),%ymm15 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,237,24,3,0 // vbroadcastss 0x318ed(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,21,35,3,0 // vbroadcastss 0x32315(%rip),%ymm0 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8430,7 +8531,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,174,23,3,0 // vbroadcastss 0x317ae(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,214,33,3,0 // vbroadcastss 0x321d6(%rip),%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8484,11 +8585,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,225,22,3,0 // vbroadcastss 0x316e1(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,220,22,3,0 // vbroadcastss 0x316dc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,9,33,3,0 // vbroadcastss 0x32109(%rip),%ymm14 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,4,33,3,0 // vbroadcastss 0x32104(%rip),%ymm15 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,205,22,3,0 // vbroadcastss 0x316cd(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,245,32,3,0 // vbroadcastss 0x320f5(%rip),%ymm0 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8543,7 +8644,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,142,21,3,0 // vbroadcastss 0x3158e(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,182,31,3,0 // vbroadcastss 0x31fb6(%rip),%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8571,11 +8672,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,67,21,3,0 // vbroadcastss 0x31543(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,62,21,3,0 // vbroadcastss 0x3153e(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,107,31,3,0 // vbroadcastss 0x31f6b(%rip),%ymm13 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,102,31,3,0 // vbroadcastss 0x31f66(%rip),%ymm14 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,47,21,3,0 // vbroadcastss 0x3152f(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,87,31,3,0 // vbroadcastss 0x31f57(%rip),%ymm15 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8631,7 +8732,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,229,19,3,0 // vbroadcastss 0x313e5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,13,30,3,0 // vbroadcastss 0x31e0d(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8659,11 +8760,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,154,19,3,0 // vbroadcastss 0x3139a(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,149,19,3,0 // vbroadcastss 0x31395(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,194,29,3,0 // vbroadcastss 0x31dc2(%rip),%ymm13 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,189,29,3,0 // vbroadcastss 0x31dbd(%rip),%ymm14 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,134,19,3,0 // vbroadcastss 0x31386(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,174,29,3,0 // vbroadcastss 0x31dae(%rip),%ymm15 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8719,7 +8820,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,60,18,3,0 // vbroadcastss 0x3123c(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,100,28,3,0 // vbroadcastss 0x31c64(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8748,20 +8849,20 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 911e <_sk_srcover_rgba_8888_hsw+0x100>
+ .byte 15,133,224,0,0,0 // jne 932a <_sk_srcover_rgba_8888_hsw+0x100>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,180,19,3,0 // vpand 0x313b4(%rip),%ymm7,%ymm4 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0x498>
+ .byte 197,197,219,37,232,29,3,0 // vpand 0x31de8(%rip),%ymm7,%ymm4 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x4a4>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,199,19,3,0 // vpshufb 0x313c7(%rip),%ymm7,%ymm5 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x4b8>
+ .byte 196,226,69,0,45,251,29,3,0 // vpshufb 0x31dfb(%rip),%ymm7,%ymm5 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x4c4>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,218,19,3,0 // vpshufb 0x313da(%rip),%ymm7,%ymm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x4d8>
+ .byte 196,226,69,0,53,14,30,3,0 // vpshufb 0x31e0e(%rip),%ymm7,%ymm6 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x4e4>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,151,17,3,0 // vbroadcastss 0x31197(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,191,27,3,0 // vbroadcastss 0x31bbf(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,182,17,3,0 // vbroadcastss 0x311b6(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,222,27,3,0 // vbroadcastss 0x31bde(%rip),%ymm10 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -8789,7 +8890,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 9155 <_sk_srcover_rgba_8888_hsw+0x137>
+ .byte 117,65 // jne 9361 <_sk_srcover_rgba_8888_hsw+0x137>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8798,33 +8899,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,14,255,255,255 // ja 9044 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,14,255,255,255 // ja 9250 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,255,0,0,0 // lea 0xff(%rip),%r10 # 9240 <_sk_srcover_rgba_8888_hsw+0x222>
+ .byte 76,141,21,255,0,0,0 // lea 0xff(%rip),%r10 # 944c <_sk_srcover_rgba_8888_hsw+0x222>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,239,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,239,254,255,255 // jmpq 9250 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 911a <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 119,181 // ja 9326 <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 925c <_sk_srcover_rgba_8888_hsw+0x23e>
+ .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 9468 <_sk_srcover_rgba_8888_hsw+0x23e>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 911a <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 235,153 // jmp 9326 <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,156,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,156,254,255,255 // jmpq 9250 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8837,10 +8938,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,77,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,77,254,255,255 // jmpq 9250 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 233,16,255,255,255 // jmpq 9326 <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8848,7 +8949,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 233,220,254,255,255 // jmpq 9326 <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 102,144 // xchg %ax,%ax
.byte 10,255 // or %bh,%bh
.byte 255 // (bad)
@@ -8860,11 +8961,11 @@ _sk_srcover_rgba_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 9255 <_sk_srcover_rgba_8888_hsw+0x237>
+ .byte 126,255 // jle 9461 <_sk_srcover_rgba_8888_hsw+0x237>
.byte 255 // (bad)
.byte 255,104,255 // ljmp *-0x1(%rax)
.byte 255 // (bad)
- .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa4009260 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fcf2f8>
+ .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa400946c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fce8d0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,155,255,255,255,215 // lcall *-0x28000001(%rbx)
@@ -8891,20 +8992,20 @@ _sk_srcover_bgra_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 9378 <_sk_srcover_bgra_8888_hsw+0x100>
+ .byte 15,133,224,0,0,0 // jne 9584 <_sk_srcover_bgra_8888_hsw+0x100>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,186,17,3,0 // vpand 0x311ba(%rip),%ymm7,%ymm4 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x4f8>
+ .byte 197,197,219,37,238,27,3,0 // vpand 0x31bee(%rip),%ymm7,%ymm4 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x504>
.byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6
- .byte 196,226,69,0,37,205,17,3,0 // vpshufb 0x311cd(%rip),%ymm7,%ymm4 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x518>
+ .byte 196,226,69,0,37,1,28,3,0 // vpshufb 0x31c01(%rip),%ymm7,%ymm4 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x524>
.byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,226,69,0,37,224,17,3,0 // vpshufb 0x311e0(%rip),%ymm7,%ymm4 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x538>
+ .byte 196,226,69,0,37,20,28,3,0 // vpshufb 0x31c14(%rip),%ymm7,%ymm4 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x544>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,61,15,3,0 // vbroadcastss 0x30f3d(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,101,25,3,0 // vbroadcastss 0x31965(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,92,15,3,0 // vbroadcastss 0x30f5c(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,132,25,3,0 // vbroadcastss 0x31984(%rip),%ymm10 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -8932,7 +9033,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 93af <_sk_srcover_bgra_8888_hsw+0x137>
+ .byte 117,65 // jne 95bb <_sk_srcover_bgra_8888_hsw+0x137>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8941,33 +9042,33 @@ _sk_srcover_bgra_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,14,255,255,255 // ja 929e <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 15,135,14,255,255,255 // ja 94aa <_sk_srcover_bgra_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,253,0,0,0 // lea 0xfd(%rip),%r10 # 9498 <_sk_srcover_bgra_8888_hsw+0x220>
+ .byte 76,141,21,253,0,0,0 // lea 0xfd(%rip),%r10 # 96a4 <_sk_srcover_bgra_8888_hsw+0x220>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,239,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,239,254,255,255 // jmpq 94aa <_sk_srcover_bgra_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 119,181 // ja 9580 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 94b4 <_sk_srcover_bgra_8888_hsw+0x23c>
+ .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 96c0 <_sk_srcover_bgra_8888_hsw+0x23c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 235,153 // jmp 9580 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,156,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,156,254,255,255 // jmpq 94aa <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8980,10 +9081,10 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,77,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,77,254,255,255 // jmpq 94aa <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 233,16,255,255,255 // jmpq 9580 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8991,7 +9092,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 233,220,254,255,255 // jmpq 9580 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 12,255 // or $0xff,%al
.byte 255 // (bad)
.byte 255,89,255 // lcall *-0x1(%rcx)
@@ -9038,7 +9139,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,34,13,3,0 // vbroadcastss 0x30d22(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,74,23,3,0 // vbroadcastss 0x3174a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -9050,7 +9151,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,1,13,3,0 // vbroadcastss 0x30d01(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,41,23,3,0 // vbroadcastss 0x31729(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -9062,7 +9163,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,227,12,3,0 // vbroadcastss 0x30ce3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,11,23,3,0 // vbroadcastss 0x3170b(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -9095,7 +9196,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,158,12,3,0 // vbroadcastss 0x30c9e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,198,22,3,0 // vbroadcastss 0x316c6(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -9149,9 +9250,9 @@ HIDDEN _sk_unpremul_hsw
.globl _sk_unpremul_hsw
FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
- .byte 196,98,125,24,5,57,12,3,0 // vbroadcastss 0x30c39(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,97,22,3,0 // vbroadcastss 0x31661(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,92,12,3,0 // vbroadcastss 0x30c5c(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,132,22,3,0 // vbroadcastss 0x31684(%rip),%ymm9 # 3ae7c <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -9165,16 +9266,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,54,12,3,0 // vbroadcastss 0x30c36(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,94,22,3,0 // vbroadcastss 0x3165e(%rip),%ymm8 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,40,12,3,0 // vbroadcastss 0x30c28(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,7,12,3,0 // vbroadcastss 0x30c07(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,80,22,3,0 // vbroadcastss 0x31650(%rip),%ymm11 # 3ae84 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,47,22,3,0 // vbroadcastss 0x3162f(%rip),%ymm12 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,16,12,3,0 // vbroadcastss 0x30c10(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,56,22,3,0 // vbroadcastss 0x31638(%rip),%ymm14 # 3ae88 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,6,12,3,0 // vbroadcastss 0x30c06(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,46,22,3,0 // vbroadcastss 0x3162e(%rip),%ymm10 # 3ae8c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -9197,16 +9298,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,158,11,3,0 // vbroadcastss 0x30b9e(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,198,21,3,0 // vbroadcastss 0x315c6(%rip),%ymm8 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,144,11,3,0 // vbroadcastss 0x30b90(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,111,11,3,0 // vbroadcastss 0x30b6f(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,184,21,3,0 // vbroadcastss 0x315b8(%rip),%ymm11 # 3ae84 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,151,21,3,0 // vbroadcastss 0x31597(%rip),%ymm12 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,120,11,3,0 // vbroadcastss 0x30b78(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,160,21,3,0 // vbroadcastss 0x315a0(%rip),%ymm14 # 3ae88 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,110,11,3,0 // vbroadcastss 0x30b6e(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,150,21,3,0 // vbroadcastss 0x31596(%rip),%ymm10 # 3ae8c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -9230,19 +9331,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,18,11,3,0 // vbroadcastss 0x30b12(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,58,21,3,0 // vbroadcastss 0x3153a(%rip),%ymm8 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,8,11,3,0 // vbroadcastss 0x30b08(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,3,11,3,0 // vbroadcastss 0x30b03(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,48,21,3,0 // vbroadcastss 0x31530(%rip),%ymm11 # 3ae94 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,43,21,3,0 // vbroadcastss 0x3152b(%rip),%ymm12 # 3ae98 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,36,12,3,0 // vbroadcastss 0x30c24(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,76,22,3,0 // vbroadcastss 0x3164c(%rip),%ymm14 # 3afcc <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,26,12,3,0 // vbroadcastss 0x30c1a(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,66,22,3,0 // vbroadcastss 0x31642(%rip),%ymm15 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,214,10,3,0 // vbroadcastss 0x30ad6(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,254,20,3,0 // vbroadcastss 0x314fe(%rip),%ymm13 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -9276,26 +9377,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,237,9,3,0 // vbroadcastss 0x309ed(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,21,20,3,0 // vbroadcastss 0x31415(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,50,10,3,0 // vbroadcastss 0x30a32(%rip),%ymm14 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,53,90,20,3,0 // vbroadcastss 0x3145a(%rip),%ymm14 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,25,10,3,0 // vbroadcastss 0x30a19(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,65,20,3,0 // vbroadcastss 0x31441(%rip),%ymm14 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,7,10,3,0 // vbroadcastss 0x30a07(%rip),%ymm14 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,53,47,20,3,0 // vbroadcastss 0x3142f(%rip),%ymm14 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,122,9,3,0 // vbroadcastss 0x3097a(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,162,19,3,0 // vbroadcastss 0x313a2(%rip),%ymm11 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -9305,7 +9406,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,173,9,3,0 // vbroadcastss 0x309ad(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,213,19,3,0 // vbroadcastss 0x313d5(%rip),%ymm8 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9322,30 +9423,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,6,9,3,0 // vbroadcastss 0x30906(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,46,19,3,0 // vbroadcastss 0x3132e(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,73,9,3,0 // vbroadcastss 0x30949(%rip),%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,13,113,19,3,0 // vbroadcastss 0x31371(%rip),%ymm9 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,71,9,3,0 // vbroadcastss 0x30947(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,111,19,3,0 // vbroadcastss 0x3136f(%rip),%ymm11 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,25,9,3,0 // vbroadcastss 0x30919(%rip),%ymm13 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,45,65,19,3,0 // vbroadcastss 0x31341(%rip),%ymm13 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,19,9,3,0 // vbroadcastss 0x30913(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,59,19,3,0 // vbroadcastss 0x3133b(%rip),%ymm14 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,13,9,3,0 // vbroadcastss 0x3090d(%rip),%ymm3 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,29,53,19,3,0 // vbroadcastss 0x31335(%rip),%ymm3 # 3aebc <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,228,8,3,0 // vbroadcastss 0x308e4(%rip),%ymm12 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,37,12,19,3,0 // vbroadcastss 0x3130c(%rip),%ymm12 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -9361,7 +9462,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,152,8,3,0 // vbroadcastss 0x30898(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,192,18,3,0 // vbroadcastss 0x312c0(%rip),%ymm0 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -9413,12 +9514,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9ae3 <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 9cef <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,57,16,3,0 // vpand 0x31039(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,57,219,5,45,27,3,0 // vpand 0x31b2d(%rip),%xmm8,%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,198,7,3,0 // vbroadcastss 0x307c6(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,238,17,3,0 // vbroadcastss 0x311ee(%rip),%ymm9 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9431,15 +9532,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 9aaf <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 9cbb <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9b7c <_sk_scale_u8_hsw+0xeb>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9d88 <_sk_scale_u8_hsw+0xeb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 9aaf <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 9cbb <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9447,7 +9548,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 9cbb <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9458,7 +9559,7 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 9cbb <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -9492,23 +9593,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 9c58 <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 9e64 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,201,6,3,0 // vpbroadcastd 0x306c9(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,241,16,3,0 // vpbroadcastd 0x310f1(%rip),%ymm9 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,186,6,3,0 // vbroadcastss 0x306ba(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,226,16,3,0 // vbroadcastss 0x310e2(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,176,6,3,0 // vpbroadcastd 0x306b0(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,216,16,3,0 // vpbroadcastd 0x310d8(%rip),%ymm10 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,161,6,3,0 // vbroadcastss 0x306a1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,201,16,3,0 // vbroadcastss 0x310c9(%rip),%ymm11 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,151,6,3,0 // vpbroadcastd 0x30697(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,191,16,3,0 // vpbroadcastd 0x310bf(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,136,6,3,0 // vbroadcastss 0x30688(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,176,16,3,0 // vbroadcastss 0x310b0(%rip),%ymm11 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9527,27 +9628,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 9bbd <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 9dc9 <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9ce0 <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9eec <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 9dc9 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 9dc9 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 9dc9 <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9597,12 +9698,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 9d91 <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9f9d <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,159,13,3,0 // vpand 0x30d9f(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,57,219,5,147,24,3,0 // vpand 0x31893(%rip),%xmm8,%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,44,5,3,0 // vbroadcastss 0x3052c(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,84,15,3,0 // vbroadcastss 0x30f54(%rip),%ymm9 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -9619,15 +9720,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 9d49 <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 9f55 <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9e2c <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # a038 <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 9d49 <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 9f55 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9635,7 +9736,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 9f55 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9646,7 +9747,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 9f55 <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -9654,7 +9755,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde009e3c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcfed4>
+ .byte 232,255,255,255,221 // callq ffffffffde00a048 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcf4ac>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -9677,23 +9778,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 9f1c <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne a128 <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,25,4,3,0 // vpbroadcastd 0x30419(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,65,14,3,0 // vpbroadcastd 0x30e41(%rip),%ymm9 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,10,4,3,0 // vbroadcastss 0x3040a(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,50,14,3,0 // vbroadcastss 0x30e32(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,0,4,3,0 // vpbroadcastd 0x30400(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,40,14,3,0 // vpbroadcastd 0x30e28(%rip),%ymm10 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,241,3,3,0 // vbroadcastss 0x303f1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,25,14,3,0 // vbroadcastss 0x30e19(%rip),%ymm11 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,231,3,3,0 // vpbroadcastd 0x303e7(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,15,14,3,0 // vpbroadcastd 0x30e0f(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,216,3,3,0 // vbroadcastss 0x303d8(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,0,14,3,0 // vbroadcastss 0x30e00(%rip),%ymm11 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9716,27 +9817,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja 9e6d <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja a079 <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9fa4 <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # a1b0 <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq a079 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq a079 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq a079 <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9765,9 +9866,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne a03e <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne a24a <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,232,4,3,0 // vpand 0x304e8(%rip),%ymm3,%ymm1 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x558>
+ .byte 197,229,219,13,28,15,3,0 // vpand 0x30f1c(%rip),%ymm3,%ymm1 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x564>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -9775,16 +9876,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,223,4,3,0 // vpshufb 0x304df(%rip),%ymm3,%ymm9 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x578>
+ .byte 196,98,101,0,13,19,15,3,0 // vpshufb 0x30f13(%rip),%ymm3,%ymm9 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x584>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,227,4,3,0 // vpshufb 0x304e3(%rip),%ymm3,%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x598>
+ .byte 196,98,101,0,13,23,15,3,0 // vpshufb 0x30f17(%rip),%ymm3,%ymm9 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x5a4>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,91,2,3,0 // vbroadcastss 0x3025b(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,131,12,3,0 // vbroadcastss 0x30c83(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9793,21 +9894,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 9fd0 <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja a1dc <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a0ec <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a2f8 <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq a1dc <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq a1dc <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -9820,8 +9921,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg a0ed <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq a1dc <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg a2f9 <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -9849,7 +9950,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne a1f5 <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne a401 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -9865,7 +9966,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,128,9,3,0 // vmovdqa 0x30980(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,121,111,29,116,20,3,0 // vmovdqa 0x31474(%rip),%xmm11 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -9890,36 +9991,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,192,0,3,0 // vbroadcastss 0x300c0(%rip),%ymm8 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,5,232,10,3,0 // vbroadcastss 0x30ae8(%rip),%ymm8 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je a25b <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je a467 <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb a25b <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb a467 <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je a268 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je a474 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb a268 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb a474 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je a139 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je a345 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb a139 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb a345 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq a345 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq a345 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq a345 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -9929,7 +10030,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne a351 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne a55d <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -9950,7 +10051,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,0,8,3,0 // vmovdqa 0x30800(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,249,111,29,244,18,3,0 // vmovdqa 0x312f4(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -9970,69 +10071,69 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,201,254,2,0 // vbroadcastss 0x2fec9(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,241,8,3,0 // vbroadcastss 0x308f1(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne a389 <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne a595 <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq a4c4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb a3d3 <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb a5df <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne a3ed <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne a5f9 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq a4c4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq a4c4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb a42e <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb a63a <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne a43f <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne a64b <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq a4c4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq a4c4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb a472 <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb a67e <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq a4c4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq a4c4 <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
@@ -10041,9 +10142,9 @@ _sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,137,253,2,0 // vbroadcastss 0x2fd89(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,177,7,3,0 // vbroadcastss 0x307b1(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,167,253,2,0 // vbroadcastss 0x2fda7(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,207,7,3,0 // vbroadcastss 0x307cf(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,65,249,126,208 // vmovq %xmm10,%r8
@@ -10179,7 +10280,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,93,251,2,0 // vbroadcastss 0x2fb5d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,133,5,3,0 // vbroadcastss 0x30585(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10206,7 +10307,7 @@ _sk_byte_tables_rgb_hsw:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,130,250,2,0 // vbroadcastss 0x2fa82(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,170,4,3,0 // vbroadcastss 0x304aa(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
@@ -10309,7 +10410,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,6,249,2,0 // vbroadcastss 0x2f906(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,46,3,3,0 // vbroadcastss 0x3032e(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10334,7 +10435,7 @@ _sk_table_r_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,21,57,248,2,0 // vbroadcastss 0x2f839(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,97,2,3,0 // vbroadcastss 0x30261(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
@@ -10357,7 +10458,7 @@ _sk_table_g_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,21,238,247,2,0 // vbroadcastss 0x2f7ee(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,22,2,3,0 // vbroadcastss 0x30216(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
@@ -10380,7 +10481,7 @@ _sk_table_b_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,21,163,247,2,0 // vbroadcastss 0x2f7a3(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,203,1,3,0 // vbroadcastss 0x301cb(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,210 // vminps %ymm10,%ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -10403,7 +10504,7 @@ _sk_table_a_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,21,88,247,2,0 // vbroadcastss 0x2f758(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,128,1,3,0 // vbroadcastss 0x30180(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,218 // vminps %ymm10,%ymm3,%ymm3
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
@@ -10430,33 +10531,33 @@ _sk_parametric_r_hsw:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,131,247,2,0 // vbroadcastss 0x2f783(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,126,247,2,0 // vbroadcastss 0x2f77e(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,171,1,3,0 // vbroadcastss 0x301ab(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,166,1,3,0 // vbroadcastss 0x301a6(%rip),%ymm15 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,208,246,2,0 // vbroadcastss 0x2f6d0(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,248,0,3,0 // vbroadcastss 0x300f8(%rip),%ymm15 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,102,247,2,0 // vbroadcastss 0x2f766(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,142,1,3,0 // vbroadcastss 0x3018e(%rip),%ymm15 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,92,247,2,0 // vbroadcastss 0x2f75c(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,132,1,3,0 // vbroadcastss 0x30184(%rip),%ymm13 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,82,247,2,0 // vbroadcastss 0x2f752(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,122,1,3,0 // vbroadcastss 0x3017a(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,72,247,2,0 // vbroadcastss 0x2f748(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,112,1,3,0 // vbroadcastss 0x30170(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,41,247,2,0 // vbroadcastss 0x2f729(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,81,1,3,0 // vbroadcastss 0x30151(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,31,247,2,0 // vbroadcastss 0x2f71f(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,71,1,3,0 // vbroadcastss 0x30147(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,21,247,2,0 // vbroadcastss 0x2f715(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,61,1,3,0 // vbroadcastss 0x3013d(%rip),%ymm11 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,11,247,2,0 // vbroadcastss 0x2f70b(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,51,1,3,0 // vbroadcastss 0x30133(%rip),%ymm12 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,252,246,2,0 // vbroadcastss 0x2f6fc(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,36,1,3,0 // vbroadcastss 0x30124(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -10464,7 +10565,7 @@ _sk_parametric_r_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,14,246,2,0 // vbroadcastss 0x2f60e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,54,0,3,0 // vbroadcastss 0x30036(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10486,33 +10587,33 @@ _sk_parametric_g_hsw:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,81,246,2,0 // vbroadcastss 0x2f651(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,76,246,2,0 // vbroadcastss 0x2f64c(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,121,0,3,0 // vbroadcastss 0x30079(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,116,0,3,0 // vbroadcastss 0x30074(%rip),%ymm15 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,158,245,2,0 // vbroadcastss 0x2f59e(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,198,255,2,0 // vbroadcastss 0x2ffc6(%rip),%ymm15 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,52,246,2,0 // vbroadcastss 0x2f634(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,92,0,3,0 // vbroadcastss 0x3005c(%rip),%ymm15 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,42,246,2,0 // vbroadcastss 0x2f62a(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,82,0,3,0 // vbroadcastss 0x30052(%rip),%ymm13 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,32,246,2,0 // vbroadcastss 0x2f620(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,72,0,3,0 // vbroadcastss 0x30048(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,22,246,2,0 // vbroadcastss 0x2f616(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,62,0,3,0 // vbroadcastss 0x3003e(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,247,245,2,0 // vbroadcastss 0x2f5f7(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,31,0,3,0 // vbroadcastss 0x3001f(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,237,245,2,0 // vbroadcastss 0x2f5ed(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,21,0,3,0 // vbroadcastss 0x30015(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,227,245,2,0 // vbroadcastss 0x2f5e3(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,11,0,3,0 // vbroadcastss 0x3000b(%rip),%ymm11 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,217,245,2,0 // vbroadcastss 0x2f5d9(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,1,0,3,0 // vbroadcastss 0x30001(%rip),%ymm12 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,202,245,2,0 // vbroadcastss 0x2f5ca(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,242,255,2,0 // vbroadcastss 0x2fff2(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -10520,7 +10621,7 @@ _sk_parametric_g_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,220,244,2,0 // vbroadcastss 0x2f4dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,255,2,0 // vbroadcastss 0x2ff04(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10542,33 +10643,33 @@ _sk_parametric_b_hsw:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,31,245,2,0 // vbroadcastss 0x2f51f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,26,245,2,0 // vbroadcastss 0x2f51a(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,71,255,2,0 // vbroadcastss 0x2ff47(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,66,255,2,0 // vbroadcastss 0x2ff42(%rip),%ymm15 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,108,244,2,0 // vbroadcastss 0x2f46c(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,148,254,2,0 // vbroadcastss 0x2fe94(%rip),%ymm15 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,2,245,2,0 // vbroadcastss 0x2f502(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,42,255,2,0 // vbroadcastss 0x2ff2a(%rip),%ymm15 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,248,244,2,0 // vbroadcastss 0x2f4f8(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,32,255,2,0 // vbroadcastss 0x2ff20(%rip),%ymm13 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,238,244,2,0 // vbroadcastss 0x2f4ee(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,22,255,2,0 // vbroadcastss 0x2ff16(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,228,244,2,0 // vbroadcastss 0x2f4e4(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,12,255,2,0 // vbroadcastss 0x2ff0c(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,197,244,2,0 // vbroadcastss 0x2f4c5(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,237,254,2,0 // vbroadcastss 0x2feed(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,187,244,2,0 // vbroadcastss 0x2f4bb(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,227,254,2,0 // vbroadcastss 0x2fee3(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,177,244,2,0 // vbroadcastss 0x2f4b1(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,217,254,2,0 // vbroadcastss 0x2fed9(%rip),%ymm11 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,167,244,2,0 // vbroadcastss 0x2f4a7(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,207,254,2,0 // vbroadcastss 0x2fecf(%rip),%ymm12 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,152,244,2,0 // vbroadcastss 0x2f498(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,192,254,2,0 // vbroadcastss 0x2fec0(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -10576,7 +10677,7 @@ _sk_parametric_b_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,170,243,2,0 // vbroadcastss 0x2f3aa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,210,253,2,0 // vbroadcastss 0x2fdd2(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10598,33 +10699,33 @@ _sk_parametric_a_hsw:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,237,243,2,0 // vbroadcastss 0x2f3ed(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,232,243,2,0 // vbroadcastss 0x2f3e8(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,21,254,2,0 // vbroadcastss 0x2fe15(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,16,254,2,0 // vbroadcastss 0x2fe10(%rip),%ymm15 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,58,243,2,0 // vbroadcastss 0x2f33a(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,98,253,2,0 // vbroadcastss 0x2fd62(%rip),%ymm15 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,208,243,2,0 // vbroadcastss 0x2f3d0(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,248,253,2,0 // vbroadcastss 0x2fdf8(%rip),%ymm15 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,198,243,2,0 // vbroadcastss 0x2f3c6(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,238,253,2,0 // vbroadcastss 0x2fdee(%rip),%ymm13 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,188,243,2,0 // vbroadcastss 0x2f3bc(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,228,253,2,0 // vbroadcastss 0x2fde4(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,178,243,2,0 // vbroadcastss 0x2f3b2(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,218,253,2,0 // vbroadcastss 0x2fdda(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,147,243,2,0 // vbroadcastss 0x2f393(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,187,253,2,0 // vbroadcastss 0x2fdbb(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,137,243,2,0 // vbroadcastss 0x2f389(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,177,253,2,0 // vbroadcastss 0x2fdb1(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,127,243,2,0 // vbroadcastss 0x2f37f(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,167,253,2,0 // vbroadcastss 0x2fda7(%rip),%ymm11 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,117,243,2,0 // vbroadcastss 0x2f375(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,157,253,2,0 // vbroadcastss 0x2fd9d(%rip),%ymm12 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,102,243,2,0 // vbroadcastss 0x2f366(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,142,253,2,0 // vbroadcastss 0x2fd8e(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -10632,7 +10733,7 @@ _sk_parametric_a_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,120,242,2,0 // vbroadcastss 0x2f278(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,160,252,2,0 // vbroadcastss 0x2fca0(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10650,24 +10751,24 @@ _sk_gamma_hsw:
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,193,242,2,0 // vbroadcastss 0x2f2c1(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,37,188,242,2,0 // vbroadcastss 0x2f2bc(%rip),%ymm4 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,233,252,2,0 // vbroadcastss 0x2fce9(%rip),%ymm11 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,37,228,252,2,0 // vbroadcastss 0x2fce4(%rip),%ymm4 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,124,84,228 // vandps %ymm4,%ymm0,%ymm12
- .byte 196,226,125,24,29,15,242,2,0 // vbroadcastss 0x2f20f(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,55,252,2,0 // vbroadcastss 0x2fc37(%rip),%ymm3 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,92,36,32 // vmovups %ymm3,0x20(%rsp)
.byte 197,28,86,227 // vorps %ymm3,%ymm12,%ymm12
- .byte 196,98,125,24,45,160,242,2,0 // vbroadcastss 0x2f2a0(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,200,252,2,0 // vbroadcastss 0x2fcc8(%rip),%ymm13 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,124,91,241 // vcvtdq2ps %ymm1,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,250 // vcvtdq2ps %ymm2,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,132,242,2,0 // vbroadcastss 0x2f284(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,172,252,2,0 // vbroadcastss 0x2fcac(%rip),%ymm5 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,122,242,2,0 // vbroadcastss 0x2f27a(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,162,252,2,0 // vbroadcastss 0x2fca2(%rip),%ymm1 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,5,107,242,2,0 // vbroadcastss 0x2f26b(%rip),%ymm8 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,5,147,252,2,0 // vbroadcastss 0x2fc93(%rip),%ymm8 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,60,94,228 // vdivps %ymm12,%ymm8,%ymm12
.byte 197,124,17,68,36,128 // vmovups %ymm8,-0x80(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10676,18 +10777,18 @@ _sk_gamma_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,64,242,2,0 // vbroadcastss 0x2f240(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,104,252,2,0 // vbroadcastss 0x2fc68(%rip),%ymm11 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,54,242,2,0 // vbroadcastss 0x2f236(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,94,252,2,0 // vbroadcastss 0x2fc5e(%rip),%ymm12 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,13,44,242,2,0 // vbroadcastss 0x2f22c(%rip),%ymm9 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,13,84,252,2,0 // vbroadcastss 0x2fc54(%rip),%ymm9 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,180,92,255 // vsubps %ymm7,%ymm9,%ymm7
- .byte 196,226,125,24,13,35,242,2,0 // vbroadcastss 0x2f223(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,75,252,2,0 // vbroadcastss 0x2fc4b(%rip),%ymm1 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm6
- .byte 196,226,125,24,29,11,242,2,0 // vbroadcastss 0x2f20b(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,51,252,2,0 // vbroadcastss 0x2fc33(%rip),%ymm3 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,194,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm0
@@ -10756,27 +10857,27 @@ _sk_gamma_dst_hsw:
.byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
.byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,141,240,2,0 // vbroadcastss 0x2f08d(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,5,136,240,2,0 // vbroadcastss 0x2f088(%rip),%ymm0 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,181,250,2,0 // vbroadcastss 0x2fab5(%rip),%ymm11 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,176,250,2,0 // vbroadcastss 0x2fab0(%rip),%ymm0 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,92,84,224 // vandps %ymm0,%ymm4,%ymm12
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,220 // vmovaps %ymm4,%ymm3
- .byte 196,226,125,24,5,211,239,2,0 // vbroadcastss 0x2efd3(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,251,249,2,0 // vbroadcastss 0x2f9fb(%rip),%ymm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,4,36 // vmovups %ymm0,(%rsp)
.byte 197,28,86,224 // vorps %ymm0,%ymm12,%ymm12
- .byte 196,98,125,24,45,101,240,2,0 // vbroadcastss 0x2f065(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,141,250,2,0 // vbroadcastss 0x2fa8d(%rip),%ymm13 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,252,40,197 // vmovaps %ymm5,%ymm0
.byte 197,124,91,240 // vcvtdq2ps %ymm0,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,124,36,128 // vcvtdq2ps -0x80(%rsp),%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,67,240,2,0 // vbroadcastss 0x2f043(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,107,250,2,0 // vbroadcastss 0x2fa6b(%rip),%ymm5 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,57,240,2,0 // vbroadcastss 0x2f039(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,97,250,2,0 // vbroadcastss 0x2fa61(%rip),%ymm1 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,13,42,240,2,0 // vbroadcastss 0x2f02a(%rip),%ymm9 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,13,82,250,2,0 // vbroadcastss 0x2fa52(%rip),%ymm9 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,52,94,228 // vdivps %ymm12,%ymm9,%ymm12
.byte 197,124,17,76,36,160 // vmovups %ymm9,-0x60(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10785,18 +10886,18 @@ _sk_gamma_dst_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,255,239,2,0 // vbroadcastss 0x2efff(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,39,250,2,0 // vbroadcastss 0x2fa27(%rip),%ymm11 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,245,239,2,0 // vbroadcastss 0x2eff5(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,29,250,2,0 // vbroadcastss 0x2fa1d(%rip),%ymm12 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,5,235,239,2,0 // vbroadcastss 0x2efeb(%rip),%ymm8 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,5,19,250,2,0 // vbroadcastss 0x2fa13(%rip),%ymm8 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,188,92,255 // vsubps %ymm7,%ymm8,%ymm7
- .byte 196,226,125,24,13,226,239,2,0 // vbroadcastss 0x2efe2(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,10,250,2,0 // vbroadcastss 0x2fa0a(%rip),%ymm1 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,100,194,242,0 // vcmpeqps %ymm10,%ymm3,%ymm6
- .byte 196,226,125,24,29,202,239,2,0 // vbroadcastss 0x2efca(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,242,249,2,0 // vbroadcastss 0x2f9f2(%rip),%ymm3 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,226,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm4
@@ -10857,26 +10958,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,181,238,2,0 // vbroadcastss 0x2eeb5(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,20,238,2,0 // vbroadcastss 0x2ee14(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,167,238,2,0 // vbroadcastss 0x2eea7(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,221,248,2,0 // vbroadcastss 0x2f8dd(%rip),%ymm8 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,60,248,2,0 // vbroadcastss 0x2f83c(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,207,248,2,0 // vbroadcastss 0x2f8cf(%rip),%ymm10 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,152,238,2,0 // vbroadcastss 0x2ee98(%rip),%ymm9 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,13,192,248,2,0 // vbroadcastss 0x2f8c0(%rip),%ymm9 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,142,238,2,0 // vbroadcastss 0x2ee8e(%rip),%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,226,125,24,5,182,248,2,0 // vbroadcastss 0x2f8b6(%rip),%ymm0 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,133,238,2,0 // vbroadcastss 0x2ee85(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,173,248,2,0 // vbroadcastss 0x2f8ad(%rip),%ymm8 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,123,238,2,0 // vbroadcastss 0x2ee7b(%rip),%ymm9 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,13,163,248,2,0 // vbroadcastss 0x2f8a3(%rip),%ymm9 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,104,238,2,0 // vbroadcastss 0x2ee68(%rip),%ymm2 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,226,125,24,21,144,248,2,0 // vbroadcastss 0x2f890(%rip),%ymm2 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,94,238,2,0 // vbroadcastss 0x2ee5e(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,134,248,2,0 // vbroadcastss 0x2f886(%rip),%ymm11 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,84,238,2,0 // vbroadcastss 0x2ee54(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,124,248,2,0 // vbroadcastss 0x2f87c(%rip),%ymm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -10891,9 +10992,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,9,238,2,0 // vbroadcastss 0x2ee09(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,49,248,2,0 // vbroadcastss 0x2f831(%rip),%ymm0 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,0,238,2,0 // vbroadcastss 0x2ee00(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,40,248,2,0 // vbroadcastss 0x2f828(%rip),%ymm8 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10909,12 +11010,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b559 <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne b765 <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,189,245,2,0 // vpand 0x2f5bd(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,249,219,5,177,0,3,0 // vpand 0x300b1(%rip),%xmm0,%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,75,237,2,0 // vbroadcastss 0x2ed4b(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,115,247,2,0 // vbroadcastss 0x2f773(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -10926,15 +11027,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja b52b <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja b737 <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b5f0 <_sk_load_a8_hsw+0xe3>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b7fc <_sk_load_a8_hsw+0xe3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp b52b <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp b737 <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -10942,7 +11043,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq b737 <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -10953,7 +11054,7 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq b737 <_sk_load_a8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -10962,7 +11063,7 @@ _sk_load_a8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b600 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1698>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b80c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd0c70>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -10984,12 +11085,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b658 <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne b864 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,190,244,2,0 // vpand 0x2f4be(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,217,219,37,178,255,2,0 // vpand 0x2ffb2(%rip),%xmm4,%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,76,236,2,0 // vbroadcastss 0x2ec4c(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,116,246,2,0 // vbroadcastss 0x2f674(%rip),%ymm5 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -11001,15 +11102,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja b62a <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja b836 <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b6f0 <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b8fc <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp b62a <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp b836 <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -11017,7 +11118,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq b836 <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -11028,7 +11129,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq b836 <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -11037,7 +11138,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b700 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1798>
+ .byte 232,255,255,255,221 // callq ffffffffde00b90c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0d70>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11104,7 +11205,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,147,234,2,0 // vbroadcastss 0x2ea93(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,187,244,2,0 // vbroadcastss 0x2f4bb(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -11128,16 +11229,16 @@ _sk_store_a8_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,219,233,2,0 // vbroadcastss 0x2e9db(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,3,244,2,0 // vbroadcastss 0x2f403(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,249,233,2,0 // vbroadcastss 0x2e9f9(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,33,244,2,0 // vbroadcastss 0x2f421(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b873 <_sk_store_a8_hsw+0x5b>
+ .byte 117,10 // jne ba7f <_sk_store_a8_hsw+0x5b>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11145,25 +11246,25 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b86f <_sk_store_a8_hsw+0x57>
+ .byte 119,236 // ja ba7b <_sk_store_a8_hsw+0x57>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # b8e8 <_sk_store_a8_hsw+0xd0>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # baf4 <_sk_store_a8_hsw+0xd0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp b86f <_sk_store_a8_hsw+0x57>
+ .byte 235,202 // jmp ba7b <_sk_store_a8_hsw+0x57>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,74,242,2,0 // vpshufb 0x2f24a(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 196,98,57,0,5,62,253,2,0 // vpshufb 0x2fd3e(%rip),%xmm8,%xmm8 # 3b800 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp b86f <_sk_store_a8_hsw+0x57>
+ .byte 235,176 // jmp ba7b <_sk_store_a8_hsw+0x57>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,48,242,2,0 // vpshufb 0x2f230(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
+ .byte 196,98,57,0,5,36,253,2,0 // vpshufb 0x2fd24(%rip),%xmm8,%xmm8 # 3b810 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp b86f <_sk_store_a8_hsw+0x57>
+ .byte 235,135 // jmp ba7b <_sk_store_a8_hsw+0x57>
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
.byte 255,197 // inc %ebp
@@ -11195,15 +11296,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne b955 <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne bb61 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,198,241,2,0 // vpand 0x2f1c6(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,249,219,5,186,252,2,0 // vpand 0x2fcba(%rip),%xmm0,%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,84,233,2,0 // vbroadcastss 0x2e954(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,124,243,2,0 // vbroadcastss 0x2f37c(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,205,232,2,0 // vbroadcastss 0x2e8cd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,245,242,2,0 // vbroadcastss 0x2f2f5(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -11212,15 +11313,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja b922 <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja bb2e <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b9ec <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # bbf8 <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp b922 <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp bb2e <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -11228,7 +11329,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq bb2e <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -11239,7 +11340,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq bb2e <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -11248,7 +11349,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b9fc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1a94>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00bc08 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd106c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11270,15 +11371,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne ba59 <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne bc65 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,194,240,2,0 // vpand 0x2f0c2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,217,219,37,182,251,2,0 // vpand 0x2fbb6(%rip),%xmm4,%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,80,232,2,0 // vbroadcastss 0x2e850(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,120,242,2,0 // vbroadcastss 0x2f278(%rip),%ymm5 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,201,231,2,0 // vbroadcastss 0x2e7c9(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,241,241,2,0 // vbroadcastss 0x2f1f1(%rip),%ymm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -11287,15 +11388,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja ba26 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja bc32 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # baf0 <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # bcfc <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp ba26 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp bc32 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -11303,7 +11404,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq bc32 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -11314,7 +11415,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq bc32 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -11323,7 +11424,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1b98>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00bd0c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1170>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11390,10 +11491,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,147,230,2,0 // vbroadcastss 0x2e693(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,187,240,2,0 // vbroadcastss 0x2f0bb(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,12,230,2,0 // vbroadcastss 0x2e60c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,52,240,2,0 // vbroadcastss 0x2f034(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -11414,53 +11515,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne bcaa <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne beb6 <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,72,230,2,0 // vpbroadcastd 0x2e648(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,112,240,2,0 // vpbroadcastd 0x2f070(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,59,230,2,0 // vbroadcastss 0x2e63b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,99,240,2,0 // vbroadcastss 0x2f063(%rip),%ymm1 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,50,230,2,0 // vpbroadcastd 0x2e632(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,90,240,2,0 // vpbroadcastd 0x2f05a(%rip),%ymm1 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,37,230,2,0 // vbroadcastss 0x2e625(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,77,240,2,0 // vbroadcastss 0x2f04d(%rip),%ymm3 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,28,230,2,0 // vpbroadcastd 0x2e61c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,68,240,2,0 // vpbroadcastd 0x2f044(%rip),%ymm3 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,15,230,2,0 // vbroadcastss 0x2e60f(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,55,240,2,0 // vbroadcastss 0x2f037(%rip),%ymm3 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,112,229,2,0 // vbroadcastss 0x2e570(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,152,239,2,0 // vbroadcastss 0x2ef98(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja bc3e <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja be4a <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # bd2c <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # bf38 <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq be4a <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq be4a <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq be4a <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -11493,53 +11594,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne bdd5 <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne bfe1 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,29,229,2,0 // vpbroadcastd 0x2e51d(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,37,69,239,2,0 // vpbroadcastd 0x2ef45(%rip),%ymm4 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,16,229,2,0 // vbroadcastss 0x2e510(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,56,239,2,0 // vbroadcastss 0x2ef38(%rip),%ymm5 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,7,229,2,0 // vpbroadcastd 0x2e507(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,45,47,239,2,0 // vpbroadcastd 0x2ef2f(%rip),%ymm5 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,250,228,2,0 // vbroadcastss 0x2e4fa(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,34,239,2,0 // vbroadcastss 0x2ef22(%rip),%ymm7 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,241,228,2,0 // vpbroadcastd 0x2e4f1(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,61,25,239,2,0 // vpbroadcastd 0x2ef19(%rip),%ymm7 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,228,228,2,0 // vbroadcastss 0x2e4e4(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,12,239,2,0 // vbroadcastss 0x2ef0c(%rip),%ymm7 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,69,228,2,0 // vbroadcastss 0x2e445(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,109,238,2,0 // vbroadcastss 0x2ee6d(%rip),%ymm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja bd69 <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja bf75 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # be58 <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c064 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq bf75 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq bf75 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq bf75 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11618,23 +11719,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,56,227,2,0 // vpbroadcastd 0x2e338(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,96,237,2,0 // vpbroadcastd 0x2ed60(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,43,227,2,0 // vbroadcastss 0x2e32b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,83,237,2,0 // vbroadcastss 0x2ed53(%rip),%ymm1 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,34,227,2,0 // vpbroadcastd 0x2e322(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,74,237,2,0 // vpbroadcastd 0x2ed4a(%rip),%ymm1 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,21,227,2,0 // vbroadcastss 0x2e315(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,61,237,2,0 // vbroadcastss 0x2ed3d(%rip),%ymm3 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,12,227,2,0 // vpbroadcastd 0x2e30c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,52,237,2,0 // vpbroadcastd 0x2ed34(%rip),%ymm3 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,255,226,2,0 // vbroadcastss 0x2e2ff(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,39,237,2,0 // vbroadcastss 0x2ed27(%rip),%ymm3 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,96,226,2,0 // vbroadcastss 0x2e260(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,136,236,2,0 // vbroadcastss 0x2ec88(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -11654,15 +11755,15 @@ _sk_store_565_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,47,226,2,0 // vbroadcastss 0x2e22f(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,87,236,2,0 // vbroadcastss 0x2ec57(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,17,227,2,0 // vbroadcastss 0x2e311(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,57,237,2,0 // vbroadcastss 0x2ed39(%rip),%ymm11 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,243,226,2,0 // vbroadcastss 0x2e2f3(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,45,27,237,2,0 // vbroadcastss 0x2ed1b(%rip),%ymm13 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
@@ -11675,7 +11776,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c060 <_sk_store_565_hsw+0x9f>
+ .byte 117,10 // jne c26c <_sk_store_565_hsw+0x9f>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11683,22 +11784,22 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c05c <_sk_store_565_hsw+0x9b>
+ .byte 119,236 // ja c268 <_sk_store_565_hsw+0x9b>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # c0c0 <_sk_store_565_hsw+0xff>
+ .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # c2cc <_sk_store_565_hsw+0xff>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp c05c <_sk_store_565_hsw+0x9b>
+ .byte 235,207 // jmp c268 <_sk_store_565_hsw+0x9b>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp c05c <_sk_store_565_hsw+0x9b>
+ .byte 235,191 // jmp c268 <_sk_store_565_hsw+0x9b>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp c05c <_sk_store_565_hsw+0x9b>
+ .byte 235,159 // jmp c268 <_sk_store_565_hsw+0x9b>
.byte 15,31,0 // nopl (%rax)
.byte 196 // (bad)
.byte 255 // (bad)
@@ -11736,28 +11837,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c185 <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne c391 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,1,226,2,0 // vpbroadcastd 0x2e201(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,41,236,2,0 // vpbroadcastd 0x2ec29(%rip),%ymm0 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,244,225,2,0 // vbroadcastss 0x2e1f4(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,28,236,2,0 // vbroadcastss 0x2ec1c(%rip),%ymm1 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,235,225,2,0 // vpbroadcastd 0x2e1eb(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,19,236,2,0 // vpbroadcastd 0x2ec13(%rip),%ymm1 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,222,225,2,0 // vbroadcastss 0x2e1de(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,6,236,2,0 // vbroadcastss 0x2ec06(%rip),%ymm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,213,225,2,0 // vpbroadcastd 0x2e1d5(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,253,235,2,0 // vpbroadcastd 0x2ebfd(%rip),%ymm2 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,200,225,2,0 // vbroadcastss 0x2e1c8(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,240,235,2,0 // vbroadcastss 0x2ebf0(%rip),%ymm8 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,190,225,2,0 // vpbroadcastd 0x2e1be(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,230,235,2,0 // vpbroadcastd 0x2ebe6(%rip),%ymm8 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,176,225,2,0 // vbroadcastss 0x2e1b0(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,216,235,2,0 // vbroadcastss 0x2ebd8(%rip),%ymm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11766,27 +11867,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja c101 <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja c30d <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c20c <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c418 <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq c30d <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq c30d <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq c30d <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11822,28 +11923,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c2d1 <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne c4dd <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,181,224,2,0 // vpbroadcastd 0x2e0b5(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,37,221,234,2,0 // vpbroadcastd 0x2eadd(%rip),%ymm4 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,168,224,2,0 // vbroadcastss 0x2e0a8(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,208,234,2,0 // vbroadcastss 0x2ead0(%rip),%ymm5 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,159,224,2,0 // vpbroadcastd 0x2e09f(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,45,199,234,2,0 // vpbroadcastd 0x2eac7(%rip),%ymm5 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,146,224,2,0 // vbroadcastss 0x2e092(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,186,234,2,0 // vbroadcastss 0x2eaba(%rip),%ymm6 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,137,224,2,0 // vpbroadcastd 0x2e089(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,53,177,234,2,0 // vpbroadcastd 0x2eab1(%rip),%ymm6 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,124,224,2,0 // vbroadcastss 0x2e07c(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,164,234,2,0 // vbroadcastss 0x2eaa4(%rip),%ymm8 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,114,224,2,0 // vpbroadcastd 0x2e072(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,154,234,2,0 // vpbroadcastd 0x2ea9a(%rip),%ymm8 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,100,224,2,0 // vbroadcastss 0x2e064(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,140,234,2,0 // vbroadcastss 0x2ea8c(%rip),%ymm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11852,27 +11953,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja c24d <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja c459 <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c358 <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c564 <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq c459 <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq c459 <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq c459 <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11951,25 +12052,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,180,222,2,0 // vpbroadcastd 0x2deb4(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,220,232,2,0 // vpbroadcastd 0x2e8dc(%rip),%ymm0 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,167,222,2,0 // vbroadcastss 0x2dea7(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,207,232,2,0 // vbroadcastss 0x2e8cf(%rip),%ymm1 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,158,222,2,0 // vpbroadcastd 0x2de9e(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,198,232,2,0 // vpbroadcastd 0x2e8c6(%rip),%ymm1 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,145,222,2,0 // vbroadcastss 0x2de91(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,185,232,2,0 // vbroadcastss 0x2e8b9(%rip),%ymm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,136,222,2,0 // vpbroadcastd 0x2de88(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,176,232,2,0 // vpbroadcastd 0x2e8b0(%rip),%ymm2 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,123,222,2,0 // vbroadcastss 0x2de7b(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,163,232,2,0 // vbroadcastss 0x2e8a3(%rip),%ymm8 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,113,222,2,0 // vpbroadcastd 0x2de71(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,153,232,2,0 // vpbroadcastd 0x2e899(%rip),%ymm8 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,99,222,2,0 // vbroadcastss 0x2de63(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,139,232,2,0 // vbroadcastss 0x2e88b(%rip),%ymm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -11991,9 +12092,9 @@ _sk_store_4444_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,23,221,2,0 // vbroadcastss 0x2dd17(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,63,231,2,0 // vbroadcastss 0x2e73f(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,33,222,2,0 // vbroadcastss 0x2de21(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,73,232,2,0 // vbroadcastss 0x2e849(%rip),%ymm11 # 3af64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -12017,7 +12118,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c58d <_sk_store_4444_hsw+0xb4>
+ .byte 117,10 // jne c799 <_sk_store_4444_hsw+0xb4>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12025,22 +12126,22 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c589 <_sk_store_4444_hsw+0xb0>
+ .byte 119,236 // ja c795 <_sk_store_4444_hsw+0xb0>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # c5ec <_sk_store_4444_hsw+0x113>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # c7f8 <_sk_store_4444_hsw+0x113>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp c589 <_sk_store_4444_hsw+0xb0>
+ .byte 235,207 // jmp c795 <_sk_store_4444_hsw+0xb0>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp c589 <_sk_store_4444_hsw+0xb0>
+ .byte 235,191 // jmp c795 <_sk_store_4444_hsw+0xb0>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp c589 <_sk_store_4444_hsw+0xb0>
+ .byte 235,159 // jmp c795 <_sk_store_4444_hsw+0xb0>
.byte 102,144 // xchg %ax,%ax
.byte 197,255,255 // (bad)
.byte 255,214 // callq *%rsi
@@ -12076,16 +12177,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c67a <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne c886 <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,238,222,2,0 // vpand 0x2deee(%rip),%ymm3,%ymm0 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0x5b8>
+ .byte 197,229,219,5,34,233,2,0 // vpand 0x2e922(%rip),%ymm3,%ymm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x5c4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,81,220,2,0 // vbroadcastss 0x2dc51(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,121,230,2,0 // vbroadcastss 0x2e679(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,243,222,2,0 // vpshufb 0x2def3(%rip),%ymm3,%ymm1 # 3a540 <_sk_srcover_bgra_8888_sse2_lowp+0x5d8>
+ .byte 196,226,101,0,13,39,233,2,0 // vpshufb 0x2e927(%rip),%ymm3,%ymm1 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x5e4>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,1,223,2,0 // vpshufb 0x2df01(%rip),%ymm3,%ymm2 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x5f8>
+ .byte 196,226,101,0,21,53,233,2,0 // vpshufb 0x2e935(%rip),%ymm3,%ymm2 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x604>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -12098,21 +12199,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c62a <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja c836 <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c720 <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c92c <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp c62a <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp c836 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c836 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12125,7 +12226,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c836 <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12159,16 +12260,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c7ae <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne c9ba <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,26,222,2,0 // vpand 0x2de1a(%rip),%ymm7,%ymm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x618>
+ .byte 197,197,219,37,78,232,2,0 // vpand 0x2e84e(%rip),%ymm7,%ymm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x624>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,29,219,2,0 // vbroadcastss 0x2db1d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,69,229,2,0 // vbroadcastss 0x2e545(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,31,222,2,0 // vpshufb 0x2de1f(%rip),%ymm7,%ymm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x638>
+ .byte 196,226,69,0,45,83,232,2,0 // vpshufb 0x2e853(%rip),%ymm7,%ymm5 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x644>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,45,222,2,0 // vpshufb 0x2de2d(%rip),%ymm7,%ymm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x658>
+ .byte 196,226,69,0,53,97,232,2,0 // vpshufb 0x2e861(%rip),%ymm7,%ymm6 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x664>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12181,21 +12282,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c75e <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja c96a <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c854 <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # ca60 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp c75e <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp c96a <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c96a <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12208,7 +12309,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c96a <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12252,14 +12353,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,25,221,2,0 // vpand 0x2dd19(%rip),%ymm8,%ymm0 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x678>
+ .byte 197,189,219,5,77,231,2,0 // vpand 0x2e74d(%rip),%ymm8,%ymm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x684>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,188,217,2,0 // vbroadcastss 0x2d9bc(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,228,227,2,0 // vbroadcastss 0x2e3e4(%rip),%ymm3 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,31,221,2,0 // vpshufb 0x2dd1f(%rip),%ymm8,%ymm1 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x698>
+ .byte 196,226,61,0,13,83,231,2,0 // vpshufb 0x2e753(%rip),%ymm8,%ymm1 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x6a4>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,46,221,2,0 // vpshufb 0x2dd2e(%rip),%ymm8,%ymm2 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x6b8>
+ .byte 196,226,61,0,21,98,231,2,0 // vpshufb 0x2e762(%rip),%ymm8,%ymm2 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x6c4>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12281,9 +12382,9 @@ _sk_store_8888_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,226,216,2,0 // vbroadcastss 0x2d8e2(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,10,227,2,0 // vbroadcastss 0x2e30a(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,0,217,2,0 // vbroadcastss 0x2d900(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,40,227,2,0 // vbroadcastss 0x2e328(%rip),%ymm11 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -12305,7 +12406,7 @@ _sk_store_8888_hsw:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c9b7 <_sk_store_8888_hsw+0xaa>
+ .byte 117,10 // jne cbc3 <_sk_store_8888_hsw+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12313,17 +12414,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c9b3 <_sk_store_8888_hsw+0xa6>
+ .byte 119,236 // ja cbbf <_sk_store_8888_hsw+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ca24 <_sk_store_8888_hsw+0x117>
+ .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # cc30 <_sk_store_8888_hsw+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
+ .byte 235,208 // jmp cbbf <_sk_store_8888_hsw+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
+ .byte 235,192 // jmp cbbf <_sk_store_8888_hsw+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12331,7 +12432,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
+ .byte 235,143 // jmp cbbf <_sk_store_8888_hsw+0xa6>
.byte 183,255 // mov $0xff,%bh
.byte 255 // (bad)
.byte 255,199 // inc %edi
@@ -12342,7 +12443,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp ca35 <_sk_store_8888_hsw+0x128>
+ .byte 235,255 // jmp cc41 <_sk_store_8888_hsw+0x128>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 221,255 // (bad)
@@ -12364,16 +12465,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne cab2 <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne ccbe <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,214,219,2,0 // vpand 0x2dbd6(%rip),%ymm3,%ymm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x6d8>
+ .byte 197,229,219,5,10,230,2,0 // vpand 0x2e60a(%rip),%ymm3,%ymm0 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x6e4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,25,216,2,0 // vbroadcastss 0x2d819(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,65,226,2,0 // vbroadcastss 0x2e241(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,219,219,2,0 // vpshufb 0x2dbdb(%rip),%ymm3,%ymm0 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x6f8>
+ .byte 196,226,101,0,5,15,230,2,0 // vpshufb 0x2e60f(%rip),%ymm3,%ymm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x704>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,233,219,2,0 // vpshufb 0x2dbe9(%rip),%ymm3,%ymm0 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x718>
+ .byte 196,226,101,0,5,29,230,2,0 // vpshufb 0x2e61d(%rip),%ymm3,%ymm0 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x724>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -12386,21 +12487,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja ca62 <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja cc6e <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cb58 <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cd64 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp ca62 <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp cc6e <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq cc6e <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12413,7 +12514,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq cc6e <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12447,16 +12548,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne cbe6 <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne cdf2 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,2,219,2,0 // vpand 0x2db02(%rip),%ymm7,%ymm4 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x738>
+ .byte 197,197,219,37,54,229,2,0 // vpand 0x2e536(%rip),%ymm7,%ymm4 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x744>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,229,214,2,0 // vbroadcastss 0x2d6e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,13,225,2,0 // vbroadcastss 0x2e10d(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,7,219,2,0 // vpshufb 0x2db07(%rip),%ymm7,%ymm4 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x758>
+ .byte 196,226,69,0,37,59,229,2,0 // vpshufb 0x2e53b(%rip),%ymm7,%ymm4 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x764>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,21,219,2,0 // vpshufb 0x2db15(%rip),%ymm7,%ymm4 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x778>
+ .byte 196,226,69,0,37,73,229,2,0 // vpshufb 0x2e549(%rip),%ymm7,%ymm4 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x784>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12469,21 +12570,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja cb96 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja cda2 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cc8c <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # ce98 <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp cb96 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp cda2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq cda2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12496,7 +12597,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq cda2 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12540,14 +12641,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,1,218,2,0 // vpand 0x2da01(%rip),%ymm8,%ymm0 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x798>
+ .byte 197,189,219,5,53,228,2,0 // vpand 0x2e435(%rip),%ymm8,%ymm0 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x7a4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,132,213,2,0 // vbroadcastss 0x2d584(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,172,223,2,0 // vbroadcastss 0x2dfac(%rip),%ymm3 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,7,218,2,0 // vpshufb 0x2da07(%rip),%ymm8,%ymm0 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x7b8>
+ .byte 196,226,61,0,5,59,228,2,0 // vpshufb 0x2e43b(%rip),%ymm8,%ymm0 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x7c4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,22,218,2,0 // vpshufb 0x2da16(%rip),%ymm8,%ymm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x7d8>
+ .byte 196,226,61,0,5,74,228,2,0 // vpshufb 0x2e44a(%rip),%ymm8,%ymm0 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x7e4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12569,9 +12670,9 @@ _sk_store_bgra_hsw:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,170,212,2,0 // vbroadcastss 0x2d4aa(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,210,222,2,0 // vbroadcastss 0x2ded2(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,200,212,2,0 // vbroadcastss 0x2d4c8(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,240,222,2,0 // vbroadcastss 0x2def0(%rip),%ymm11 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -12593,7 +12694,7 @@ _sk_store_bgra_hsw:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne cdef <_sk_store_bgra_hsw+0xaa>
+ .byte 117,10 // jne cffb <_sk_store_bgra_hsw+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12601,17 +12702,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja cdeb <_sk_store_bgra_hsw+0xa6>
+ .byte 119,236 // ja cff7 <_sk_store_bgra_hsw+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ce5c <_sk_store_bgra_hsw+0x117>
+ .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # d068 <_sk_store_bgra_hsw+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
+ .byte 235,208 // jmp cff7 <_sk_store_bgra_hsw+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
+ .byte 235,192 // jmp cff7 <_sk_store_bgra_hsw+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12619,7 +12720,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
+ .byte 235,143 // jmp cff7 <_sk_store_bgra_hsw+0xa6>
.byte 183,255 // mov $0xff,%bh
.byte 255 // (bad)
.byte 255,199 // inc %edi
@@ -12630,7 +12731,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp ce6d <_sk_store_bgra_hsw+0x128>
+ .byte 235,255 // jmp d079 <_sk_store_bgra_hsw+0x128>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 221,255 // (bad)
@@ -12652,7 +12753,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne cef9 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne d105 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -12678,29 +12779,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je cf5f <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je d16b <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb cf5f <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb d16b <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je cf6c <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je d178 <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb cf6c <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb d178 <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je ceaf <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je d0bb <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb ceaf <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb d0bb <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq d0bb <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq d0bb <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq d0bb <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -12714,7 +12815,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne cff6 <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne d202 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -12740,29 +12841,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d05c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je d268 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d05c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb d268 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d069 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je d275 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d069 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb d275 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je cfac <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je d1b8 <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb cfac <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb d1b8 <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq d1b8 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq d1b8 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq d1b8 <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -12835,7 +12936,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d1a6 <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne d3b2 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -12844,22 +12945,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d1a2 <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je d3ae <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d1a2 <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb d3ae <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je d1a2 <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je d3ae <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d1a2 <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb d3ae <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je d1a2 <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je d3ae <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d1a2 <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb d3ae <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp d1a2 <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp d3ae <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -12874,7 +12975,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne d2e7 <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne d4f3 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -12893,7 +12994,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,48,208,2,0 // vbroadcastss 0x2d030(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,88,218,2,0 // vbroadcastss 0x2da58(%rip),%ymm10 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -12921,29 +13022,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d34d <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je d559 <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d34d <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb d559 <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d35a <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je d566 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d35a <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb d566 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je d236 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je d442 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb d236 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb d442 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq d442 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq d442 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq d442 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -12960,7 +13061,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne d45b <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne d667 <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -12985,7 +13086,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,159,206,2,0 // vbroadcastss 0x2ce9f(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,199,216,2,0 // vbroadcastss 0x2d8c7(%rip),%ymm9 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -13001,69 +13102,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,191,205,2,0 // vbroadcastss 0x2cdbf(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,231,215,2,0 // vbroadcastss 0x2d7e7(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne d493 <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne d69f <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq d5cf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb d4dd <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb d6e9 <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne d4f7 <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne d703 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq d5cf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq d5cf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb d538 <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb d744 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne d549 <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne d755 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq d5cf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq d5cf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb d57c <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb d788 <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq d5cf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq d5cf <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -13079,9 +13180,9 @@ _sk_store_u16_be_hsw:
.byte 73,99,193 // movslq %r9d,%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,99,204,2,0 // vbroadcastss 0x2cc63(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,139,214,2,0 // vbroadcastss 0x2d68b(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,113,205,2,0 // vbroadcastss 0x2cd71(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,153,215,2,0 // vbroadcastss 0x2d799(%rip),%ymm11 # 3af68 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
@@ -13125,7 +13226,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
.byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d6c2 <_sk_store_u16_be_hsw+0x13d>
+ .byte 117,31 // jne d8ce <_sk_store_u16_be_hsw+0x13d>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -13134,22 +13235,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d6be <_sk_store_u16_be_hsw+0x139>
+ .byte 116,240 // je d8ca <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d6be <_sk_store_u16_be_hsw+0x139>
+ .byte 114,227 // jb d8ca <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je d6be <_sk_store_u16_be_hsw+0x139>
+ .byte 116,218 // je d8ca <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d6be <_sk_store_u16_be_hsw+0x139>
+ .byte 114,205 // jb d8ca <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je d6be <_sk_store_u16_be_hsw+0x139>
+ .byte 116,196 // je d8ca <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d6be <_sk_store_u16_be_hsw+0x139>
+ .byte 114,183 // jb d8ca <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp d6be <_sk_store_u16_be_hsw+0x139>
+ .byte 235,174 // jmp d8ca <_sk_store_u16_be_hsw+0x139>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -13158,7 +13259,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja d881 <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja da8d <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -13171,7 +13272,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d890 <_sk_load_f32_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # da9c <_sk_load_f32_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -13234,7 +13335,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp d85b <_sk_load_f32_hsw+0x14b>
+ .byte 235,203 // jmp da67 <_sk_load_f32_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13260,7 +13361,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja da21 <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja dc2d <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -13273,7 +13374,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # da30 <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # dc3c <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -13336,7 +13437,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp d9fb <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp dc07 <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13376,7 +13477,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne dacf <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne dcdb <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -13389,22 +13490,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je dacb <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je dcd7 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb dacb <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb dcd7 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je dacb <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je dcd7 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb dacb <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb dcd7 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je dacb <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je dcd7 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb dacb <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb dcd7 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp dacb <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp dcd7 <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -13443,7 +13544,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,141,198,2,0 // vmulss 0x2c68d(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,181,208,2,0 // vmulss 0x2d0b5(%rip),%xmm9,%xmm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -13466,7 +13567,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,60,198,2,0 // vmulss 0x2c63c(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,100,208,2,0 // vmulss 0x2d064(%rip),%xmm9,%xmm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -13484,7 +13585,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,4,198,2,0 // vbroadcastss 0x2c604(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,44,208,2,0 // vbroadcastss 0x2d02c(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13497,7 +13598,7 @@ _sk_repeat_x_1_hsw:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,222,197,2,0 // vbroadcastss 0x2c5de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,6,208,2,0 // vbroadcastss 0x2d006(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13506,9 +13607,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,228,197,2,0 // vbroadcastss 0x2c5e4(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,12,208,2,0 // vbroadcastss 0x2d00c(%rip),%ymm8 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,186,197,2,0 // vbroadcastss 0x2c5ba(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,226,207,2,0 // vbroadcastss 0x2cfe2(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -13518,7 +13619,7 @@ _sk_mirror_x_1_hsw:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,138,197,2,0 // vbroadcastss 0x2c58a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,178,207,2,0 // vbroadcastss 0x2cfb2(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13527,11 +13628,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,156,198,2,0 // vbroadcastss 0x2c69c(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,98,125,24,5,143,198,2,0 // vbroadcastss 0x2c68f(%rip),%ymm8 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,196,208,2,0 // vbroadcastss 0x2d0c4(%rip),%ymm3 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,98,125,24,5,183,208,2,0 // vbroadcastss 0x2d0b7(%rip),%ymm8 # 3af6c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,132,198,2,0 // vbroadcastss 0x2c684(%rip),%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,29,172,208,2,0 // vbroadcastss 0x2d0ac(%rip),%ymm3 # 3af74 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -13730,9 +13831,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js dfb4 <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js e1c0 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp dfca <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp e1d6 <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -13743,7 +13844,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja e026 <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja e232 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -13759,7 +13860,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq e0b9 <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq e2c5 <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -13806,11 +13907,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe e1c0 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe e3cc <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,33,193,2,0 // vbroadcastss 0x2c121(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,73,203,2,0 // vbroadcastss 0x2cb49(%rip),%ymm2 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -13818,10 +13919,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne e100 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne e30c <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe e1c9 <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe e3d5 <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -13853,7 +13954,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp e20d <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp e419 <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -13913,24 +14014,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,156,192,2,0 // vbroadcastss 0x2c09c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,151,192,2,0 // vbroadcastss 0x2c097(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,45,196,202,2,0 // vbroadcastss 0x2cac4(%rip),%ymm13 # 3af78 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,191,202,2,0 // vbroadcastss 0x2cabf(%rip),%ymm14 # 3af7c <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,141,192,2,0 // vbroadcastss 0x2c08d(%rip),%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,45,181,202,2,0 // vbroadcastss 0x2cab5(%rip),%ymm13 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,131,192,2,0 // vbroadcastss 0x2c083(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,171,202,2,0 // vbroadcastss 0x2caab(%rip),%ymm14 # 3af84 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,110,192,2,0 // vbroadcastss 0x2c06e(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,150,202,2,0 // vbroadcastss 0x2ca96(%rip),%ymm10 # 3af88 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,20,191,2,0 // vbroadcastss 0x2bf14(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,60,201,2,0 // vbroadcastss 0x2c93c(%rip),%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,254,190,2,0 // vbroadcastss 0x2befe(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,38,201,2,0 // vbroadcastss 0x2c926(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -13958,21 +14059,21 @@ _sk_xy_to_2pt_conical_quadratic_first_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,238,191,2,0 // vbroadcastss 0x2bfee(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,22,202,2,0 // vbroadcastss 0x2ca16(%rip),%ymm11 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,205,191,2,0 // vbroadcastss 0x2bfcd(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,245,201,2,0 // vbroadcastss 0x2c9f5(%rip),%ymm9 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,95,190,2,0 // vbroadcastss 0x2be5f(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,135,200,2,0 // vbroadcastss 0x2c887(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13988,23 +14089,23 @@ _sk_xy_to_2pt_conical_quadratic_second_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,113,191,2,0 // vbroadcastss 0x2bf71(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,153,201,2,0 // vbroadcastss 0x2c999(%rip),%ymm11 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,80,191,2,0 // vbroadcastss 0x2bf50(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,120,201,2,0 // vbroadcastss 0x2c978(%rip),%ymm9 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,51,191,2,0 // vbroadcastss 0x2bf33(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,91,201,2,0 // vbroadcastss 0x2c95b(%rip),%ymm9 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,213,189,2,0 // vbroadcastss 0x2bdd5(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,253,199,2,0 // vbroadcastss 0x2c7fd(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14019,14 +14120,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,237,190,2,0 // vbroadcastss 0x2beed(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,21,201,2,0 // vbroadcastss 0x2c915(%rip),%ymm10 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,208,190,2,0 // vbroadcastss 0x2bed0(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,248,200,2,0 // vbroadcastss 0x2c8f8(%rip),%ymm8 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14069,7 +14170,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,15,189,2,0 // vbroadcastss 0x2bd0f(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,55,199,2,0 // vbroadcastss 0x2c737(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -14103,9 +14204,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,233,189,2,0 // vbroadcastss 0x2bde9(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,17,200,2,0 // vbroadcastss 0x2c811(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,144,188,2,0 // vbroadcastss 0x2bc90(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,184,198,2,0 // vbroadcastss 0x2c6b8(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14116,7 +14217,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,109,188,2,0 // vbroadcastss 0x2bc6d(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,149,198,2,0 // vbroadcastss 0x2c695(%rip),%ymm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14128,9 +14229,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,154,189,2,0 // vbroadcastss 0x2bd9a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,194,199,2,0 // vbroadcastss 0x2c7c2(%rip),%ymm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,64,188,2,0 // vbroadcastss 0x2bc40(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,104,198,2,0 // vbroadcastss 0x2c668(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14141,7 +14242,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,29,188,2,0 // vbroadcastss 0x2bc1d(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,69,198,2,0 // vbroadcastss 0x2c645(%rip),%ymm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14153,13 +14254,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,77,189,2,0 // vbroadcastss 0x2bd4d(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,117,199,2,0 // vbroadcastss 0x2c775(%rip),%ymm0 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,240,187,2,0 // vbroadcastss 0x2bbf0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,24,198,2,0 // vbroadcastss 0x2c618(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,78,188,2,0 // vbroadcastss 0x2bc4e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,37,189,2,0 // vbroadcastss 0x2bd25(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,118,198,2,0 // vbroadcastss 0x2c676(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,77,199,2,0 // vbroadcastss 0x2c74d(%rip),%ymm11 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14171,16 +14272,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,252,188,2,0 // vbroadcastss 0x2bcfc(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,36,199,2,0 // vbroadcastss 0x2c724(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,163,187,2,0 // vbroadcastss 0x2bba3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,203,197,2,0 // vbroadcastss 0x2c5cb(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,238,188,2,0 // vbroadcastss 0x2bcee(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,225,188,2,0 // vbroadcastss 0x2bce1(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,22,199,2,0 // vbroadcastss 0x2c716(%rip),%ymm9 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,9,199,2,0 // vbroadcastss 0x2c709(%rip),%ymm10 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,119,187,2,0 // vbroadcastss 0x2bb77(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,159,197,2,0 // vbroadcastss 0x2c59f(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,205,188,2,0 // vbroadcastss 0x2bccd(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,245,198,2,0 // vbroadcastss 0x2c6f5(%rip),%ymm10 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14191,14 +14292,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,77,187,2,0 // vbroadcastss 0x2bb4d(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,117,197,2,0 // vbroadcastss 0x2c575(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,152,188,2,0 // vbroadcastss 0x2bc98(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,139,188,2,0 // vbroadcastss 0x2bc8b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,192,198,2,0 // vbroadcastss 0x2c6c0(%rip),%ymm10 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,179,198,2,0 // vbroadcastss 0x2c6b3(%rip),%ymm11 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,128,188,2,0 // vbroadcastss 0x2bc80(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,168,198,2,0 // vbroadcastss 0x2c6a8(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14209,12 +14310,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,96,188,2,0 // vbroadcastss 0x2bc60(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,136,198,2,0 // vbroadcastss 0x2c688(%rip),%ymm0 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,94,187,2,0 // vbroadcastss 0x2bb5e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,53,188,2,0 // vbroadcastss 0x2bc35(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,134,197,2,0 // vbroadcastss 0x2c586(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,93,198,2,0 // vbroadcastss 0x2c65d(%rip),%ymm11 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14226,13 +14327,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,16,188,2,0 // vbroadcastss 0x2bc10(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,56,198,2,0 // vbroadcastss 0x2c638(%rip),%ymm1 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,178,186,2,0 // vbroadcastss 0x2bab2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,218,196,2,0 // vbroadcastss 0x2c4da(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,16,187,2,0 // vbroadcastss 0x2bb10(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,231,187,2,0 // vbroadcastss 0x2bbe7(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,56,197,2,0 // vbroadcastss 0x2c538(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,15,198,2,0 // vbroadcastss 0x2c60f(%rip),%ymm11 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14244,16 +14345,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,190,187,2,0 // vbroadcastss 0x2bbbe(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,230,197,2,0 // vbroadcastss 0x2c5e6(%rip),%ymm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,100,186,2,0 // vbroadcastss 0x2ba64(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,140,196,2,0 // vbroadcastss 0x2c48c(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,175,187,2,0 // vbroadcastss 0x2bbaf(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,162,187,2,0 // vbroadcastss 0x2bba2(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,215,197,2,0 // vbroadcastss 0x2c5d7(%rip),%ymm9 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,202,197,2,0 // vbroadcastss 0x2c5ca(%rip),%ymm10 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,56,186,2,0 // vbroadcastss 0x2ba38(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,96,196,2,0 // vbroadcastss 0x2c460(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,142,187,2,0 // vbroadcastss 0x2bb8e(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,182,197,2,0 // vbroadcastss 0x2c5b6(%rip),%ymm10 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14264,14 +14365,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,14,186,2,0 // vbroadcastss 0x2ba0e(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,54,196,2,0 // vbroadcastss 0x2c436(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,88,187,2,0 // vbroadcastss 0x2bb58(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,75,187,2,0 // vbroadcastss 0x2bb4b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,128,197,2,0 // vbroadcastss 0x2c580(%rip),%ymm10 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,115,197,2,0 // vbroadcastss 0x2c573(%rip),%ymm11 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,64,187,2,0 // vbroadcastss 0x2bb40(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,104,197,2,0 // vbroadcastss 0x2c568(%rip),%ymm8 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14282,12 +14383,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,32,187,2,0 // vbroadcastss 0x2bb20(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,72,197,2,0 // vbroadcastss 0x2c548(%rip),%ymm1 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,29,186,2,0 // vbroadcastss 0x2ba1d(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,244,186,2,0 // vbroadcastss 0x2baf4(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,69,196,2,0 // vbroadcastss 0x2c445(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,28,197,2,0 // vbroadcastss 0x2c51c(%rip),%ymm11 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14427,7 +14528,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,182,184,2,0 // vpbroadcastd 0x2b8b6(%rip),%ymm15 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,61,222,194,2,0 // vpbroadcastd 0x2c2de(%rip),%ymm15 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -14439,13 +14540,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,20,183,2,0 // vpbroadcastd 0x2b714(%rip),%ymm7 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,226,125,88,61,60,193,2,0 // vpbroadcastd 0x2c13c(%rip),%ymm7 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,72,184,2,0 // vbroadcastss 0x2b848(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,112,194,2,0 // vbroadcastss 0x2c270(%rip),%ymm0 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -14707,7 +14808,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,225,178,2,0 // vpbroadcastd 0x2b2e1(%rip),%ymm10 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,21,9,189,2,0 // vpbroadcastd 0x2bd09(%rip),%ymm10 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -14719,13 +14820,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,60,177,2,0 // vpbroadcastd 0x2b13c(%rip),%ymm11 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,29,100,187,2,0 // vpbroadcastd 0x2bb64(%rip),%ymm11 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,113,178,2,0 // vbroadcastss 0x2b271(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,153,188,2,0 // vbroadcastss 0x2bc99(%rip),%ymm0 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -15158,7 +15259,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,95,167,2,0 // vbroadcastss 0x2a75f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,135,177,2,0 // vbroadcastss 0x2b187(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -15170,21 +15271,123 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,153,168,2,0 // vbroadcastss 0x2a899(%rip),%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,226,125,24,13,140,168,2,0 // vbroadcastss 0x2a88c(%rip),%ymm1 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,193,178,2,0 // vbroadcastss 0x2b2c1(%rip),%ymm0 # 3afbc <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,180,178,2,0 // vbroadcastss 0x2b2b4(%rip),%ymm1 # 3afb8 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,134,168,2,0 // vbroadcastss 0x2a886(%rip),%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,5,174,178,2,0 // vbroadcastss 0x2b2ae(%rip),%ymm0 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,124,168,2,0 // vbroadcastss 0x2a87c(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,164,178,2,0 // vbroadcastss 0x2b2a4(%rip),%ymm1 # 3afc4 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,114,168,2,0 // vbroadcastss 0x2a872(%rip),%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,154,178,2,0 // vbroadcastss 0x2b29a(%rip),%ymm0 # 3afc8 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
.byte 255,224 // jmpq *%rax
- .byte 144 // nop
+
+HIDDEN _sk_bilerp_clamp_8888_hsw
+.globl _sk_bilerp_clamp_8888_hsw
+FUNCTION(_sk_bilerp_clamp_8888_hsw)
+_sk_bilerp_clamp_8888_hsw:
+ .byte 72,129,236,248,0,0,0 // sub $0xf8,%rsp
+ .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp)
+ .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp)
+ .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
+ .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,37,220,176,2,0 // vbroadcastss 0x2b0dc(%rip),%ymm4 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,252,88,212 // vaddps %ymm4,%ymm0,%ymm2
+ .byte 196,227,125,8,218,1 // vroundps $0x1,%ymm2,%ymm3
+ .byte 197,108,92,235 // vsubps %ymm3,%ymm2,%ymm13
+ .byte 197,252,17,140,36,160,0,0,0 // vmovups %ymm1,0xa0(%rsp)
+ .byte 197,244,88,204 // vaddps %ymm4,%ymm1,%ymm1
+ .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
+ .byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
+ .byte 196,226,125,24,13,178,176,2,0 // vbroadcastss 0x2b0b2(%rip),%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,116,92,221 // vsubps %ymm13,%ymm1,%ymm3
+ .byte 197,252,17,156,36,192,0,0,0 // vmovups %ymm3,0xc0(%rsp)
+ .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
+ .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
+ .byte 197,252,17,76,36,32 // vmovups %ymm1,0x20(%rsp)
+ .byte 196,226,125,88,72,12 // vpbroadcastd 0xc(%rax),%ymm1
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 197,117,254,242 // vpaddd %ymm2,%ymm1,%ymm14
+ .byte 196,226,125,88,72,16 // vpbroadcastd 0x10(%rax),%ymm1
+ .byte 197,245,254,202 // vpaddd %ymm2,%ymm1,%ymm1
+ .byte 197,254,127,76,36,96 // vmovdqu %ymm1,0x60(%rsp)
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 196,226,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm1
+ .byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
+ .byte 197,250,16,13,168,177,2,0 // vmovss 0x2b1a8(%rip),%xmm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,61,203,176,2,0 // vbroadcastss 0x2b0cb(%rip),%ymm7 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,248,40,233 // vmovaps %xmm1,%xmm5
+ .byte 196,226,125,24,205 // vbroadcastss %xmm5,%ymm1
+ .byte 197,244,88,140,36,160,0,0,0 // vaddps 0xa0(%rsp),%ymm1,%ymm1
+ .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
+ .byte 197,220,95,201 // vmaxps %ymm1,%ymm4,%ymm1
+ .byte 197,248,41,108,36,144 // vmovaps %xmm5,-0x70(%rsp)
+ .byte 197,248,46,45,161,177,2,0 // vucomiss 0x2b1a1(%rip),%xmm5 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 197,124,16,164,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm12
+ .byte 119,6 // ja fe44 <_sk_bilerp_clamp_8888_hsw+0x101>
+ .byte 197,124,16,100,36,32 // vmovups 0x20(%rsp),%ymm12
+ .byte 197,244,93,76,36,96 // vminps 0x60(%rsp),%ymm1,%ymm1
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 196,226,117,64,100,36,64 // vpmulld 0x40(%rsp),%ymm1,%ymm4
+ .byte 197,250,16,53,59,177,2,0 // vmovss 0x2b13b(%rip),%xmm6 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,206 // vbroadcastss %xmm6,%ymm1
+ .byte 197,244,88,200 // vaddps %ymm0,%ymm1,%ymm1
+ .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
+ .byte 197,212,95,201 // vmaxps %ymm1,%ymm5,%ymm1
+ .byte 196,193,116,93,206 // vminps %ymm14,%ymm1,%ymm1
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 197,221,254,201 // vpaddd %ymm1,%ymm4,%ymm1
+ .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
+ .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
+ .byte 196,66,85,144,20,136 // vpgatherdd %ymm5,(%r8,%ymm1,4),%ymm10
+ .byte 197,173,219,13,14,181,2,0 // vpand 0x2b50e(%rip),%ymm10,%ymm1 # 3b3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x804>
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 197,116,89,223 // vmulps %ymm7,%ymm1,%ymm11
+ .byte 196,226,45,0,13,29,181,2,0 // vpshufb 0x2b51d(%rip),%ymm10,%ymm1 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x824>
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 197,244,89,239 // vmulps %ymm7,%ymm1,%ymm5
+ .byte 196,226,45,0,13,44,181,2,0 // vpshufb 0x2b52c(%rip),%ymm10,%ymm1 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x844>
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
+ .byte 196,193,45,114,210,24 // vpsrld $0x18,%ymm10,%ymm10
+ .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
+ .byte 197,44,89,255 // vmulps %ymm7,%ymm10,%ymm15
+ .byte 197,248,46,53,1,177,2,0 // vucomiss 0x2b101(%rip),%xmm6 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,65,124,40,213 // vmovaps %ymm13,%ymm10
+ .byte 119,9 // ja fee3 <_sk_bilerp_clamp_8888_hsw+0x1a0>
+ .byte 197,124,16,148,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm10
+ .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
+ .byte 196,66,45,184,203 // vfmadd231ps %ymm11,%ymm10,%ymm9
+ .byte 196,98,45,184,197 // vfmadd231ps %ymm5,%ymm10,%ymm8
+ .byte 196,226,45,184,209 // vfmadd231ps %ymm1,%ymm10,%ymm2
+ .byte 196,194,45,184,223 // vfmadd231ps %ymm15,%ymm10,%ymm3
+ .byte 197,202,88,53,72,175,2,0 // vaddss 0x2af48(%rip),%xmm6,%xmm6 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,13,60,175,2,0 // vmovss 0x2af3c(%rip),%xmm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,248,46,206 // vucomiss %xmm6,%xmm1
+ .byte 15,131,71,255,255,255 // jae fe5d <_sk_bilerp_clamp_8888_hsw+0x11a>
+ .byte 197,248,40,108,36,144 // vmovaps -0x70(%rsp),%xmm5
+ .byte 197,210,88,45,40,175,2,0 // vaddss 0x2af28(%rip),%xmm5,%xmm5 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,13,28,175,2,0 // vmovss 0x2af1c(%rip),%xmm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,248,46,205 // vucomiss %xmm5,%xmm1
+ .byte 15,131,217,254,255,255 // jae fe0f <_sk_bilerp_clamp_8888_hsw+0xcc>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
+ .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
+ .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4
+ .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5
+ .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6
+ .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7
+ .byte 72,129,196,248,0,0,0 // add $0xf8,%rsp
+ .byte 255,224 // jmpq *%rax
HIDDEN _sk_start_pipeline_avx
.globl _sk_start_pipeline_avx
@@ -15207,13 +15410,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae fc02 <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae 1002a <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja fbc4 <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja ffec <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -15232,10 +15435,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe fb85 <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe ffad <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je fbf5 <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je 1001d <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15249,7 +15452,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne fb77 <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne ff9f <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -15280,10 +15483,10 @@ _sk_seed_shader_avx:
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,202,165,2,0 // vbroadcastss 0x2a5ca(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,214,173,2,0 // vbroadcastss 0x2add6(%rip),%ymm2 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,191,165,2,0 // vbroadcastss 0x2a5bf(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,203,173,2,0 // vbroadcastss 0x2adcb(%rip),%ymm2 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -15297,46 +15500,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,159,174,2,0 // vpaddd 0x2ae9f(%rip),%xmm8,%xmm9 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
- .byte 197,57,254,5,167,174,2,0 // vpaddd 0x2aea7(%rip),%xmm8,%xmm8 # 3ab30 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
+ .byte 197,57,254,13,119,183,2,0 // vpaddd 0x2b777(%rip),%xmm8,%xmm9 # 3b820 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
+ .byte 197,57,254,5,127,183,2,0 // vpaddd 0x2b77f(%rip),%xmm8,%xmm8 # 3b830 <_sk_srcover_bgra_8888_sse2_lowp+0xc94>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,111,165,2,0 // vbroadcastss 0x2a56f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,123,173,2,0 // vbroadcastss 0x2ad7b(%rip),%ymm10 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,158,182,2,0 // vmovddup 0x2b69e(%rip),%xmm12 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
+ .byte 197,123,18,37,118,191,2,0 // vmovddup 0x2bf76(%rip),%xmm12 # 3c070 <_sk_srcover_bgra_8888_sse2_lowp+0x14d4>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,45,165,2,0 // vbroadcastss 0x2a52d(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,24,45,57,173,2,0 // vbroadcastss 0x2ad39(%rip),%ymm13 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,92,182,2,0 // vmovddup 0x2b65c(%rip),%xmm14 # 3b378 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
+ .byte 197,123,18,53,52,191,2,0 // vmovddup 0x2bf34(%rip),%xmm14 # 3c078 <_sk_srcover_bgra_8888_sse2_lowp+0x14dc>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,220,164,2,0 // vbroadcastss 0x2a4dc(%rip),%ymm14 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,24,53,232,172,2,0 // vbroadcastss 0x2ace8(%rip),%ymm14 # 3ae54 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,18,182,2,0 // vmovddup 0x2b612(%rip),%xmm13 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
+ .byte 197,123,18,45,234,190,2,0 // vmovddup 0x2beea(%rip),%xmm13 # 3c080 <_sk_srcover_bgra_8888_sse2_lowp+0x14e4>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -15347,9 +15550,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,127,164,2,0 // vbroadcastss 0x2a47f(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,13,139,172,2,0 // vbroadcastss 0x2ac8b(%rip),%ymm9 # 3ae5c <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,117,164,2,0 // vbroadcastss 0x2a475(%rip),%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,129,172,2,0 // vbroadcastss 0x2ac81(%rip),%ymm9 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -15383,7 +15586,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,253,163,2,0 // vbroadcastss 0x2a3fd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,9,172,2,0 // vbroadcastss 0x2ac09(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15394,7 +15597,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,228,163,2,0 // vbroadcastss 0x2a3e4(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,240,171,2,0 // vbroadcastss 0x2abf0(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -15440,7 +15643,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,131,163,2,0 // vbroadcastss 0x2a383(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,143,171,2,0 // vbroadcastss 0x2ab8f(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15461,7 +15664,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,65,163,2,0 // vbroadcastss 0x2a341(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,77,171,2,0 // vbroadcastss 0x2ab4d(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -15503,7 +15706,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,220,162,2,0 // vbroadcastss 0x2a2dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,232,170,2,0 // vbroadcastss 0x2aae8(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -15516,7 +15719,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,187,162,2,0 // vbroadcastss 0x2a2bb(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,199,170,2,0 // vbroadcastss 0x2aac7(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -15529,7 +15732,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,154,162,2,0 // vbroadcastss 0x2a29a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,166,170,2,0 // vbroadcastss 0x2aaa6(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15546,7 +15749,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,105,162,2,0 // vbroadcastss 0x2a269(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,117,170,2,0 // vbroadcastss 0x2aa75(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -15574,7 +15777,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,36,162,2,0 // vbroadcastss 0x2a224(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,48,170,2,0 // vbroadcastss 0x2aa30(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15605,7 +15808,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,179,161,2,0 // vbroadcastss 0x2a1b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,191,169,2,0 // vbroadcastss 0x2a9bf(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -15639,7 +15842,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,82,161,2,0 // vbroadcastss 0x2a152(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,94,169,2,0 // vbroadcastss 0x2a95e(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15676,7 +15879,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,206,160,2,0 // vbroadcastss 0x2a0ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,218,168,2,0 // vbroadcastss 0x2a8da(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15702,7 +15905,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,118,160,2,0 // vbroadcastss 0x2a076(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,130,168,2,0 // vbroadcastss 0x2a882(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15731,7 +15934,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,18,160,2,0 // vbroadcastss 0x2a012(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,30,168,2,0 // vbroadcastss 0x2a81e(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15754,7 +15957,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,201,159,2,0 // vbroadcastss 0x29fc9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,213,167,2,0 // vbroadcastss 0x2a7d5(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15765,7 +15968,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,176,159,2,0 // vbroadcastss 0x29fb0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,188,167,2,0 // vbroadcastss 0x2a7bc(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -15827,7 +16030,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,180,158,2,0 // vbroadcastss 0x29eb4(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,192,166,2,0 // vbroadcastss 0x2a6c0(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -15884,7 +16087,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,191,157,2,0 // vbroadcastss 0x29dbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,203,165,2,0 // vbroadcastss 0x2a5cb(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15939,7 +16142,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,228,156,2,0 // vbroadcastss 0x29ce4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,240,164,2,0 // vbroadcastss 0x2a4f0(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16005,10 +16208,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,235,155,2,0 // vbroadcastss 0x29beb(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,247,163,2,0 // vbroadcastss 0x2a3f7(%rip),%ymm11 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,220,155,2,0 // vbroadcastss 0x29bdc(%rip),%ymm13 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,45,232,163,2,0 // vbroadcastss 0x2a3e8(%rip),%ymm13 # 3ae68 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -16019,7 +16222,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,134,155,2,0 // vbroadcastss 0x29b86(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,146,163,2,0 // vbroadcastss 0x2a392(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -16146,12 +16349,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,105,153,2,0 // vbroadcastss 0x29969(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,117,161,2,0 // vbroadcastss 0x2a175(%rip),%ymm14 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,95,153,2,0 // vbroadcastss 0x2995f(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,107,161,2,0 // vbroadcastss 0x2a16b(%rip),%ymm15 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,80,153,2,0 // vbroadcastss 0x29950(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,92,161,2,0 // vbroadcastss 0x2a15c(%rip),%ymm0 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16212,7 +16415,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,253,151,2,0 // vbroadcastss 0x297fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,9,160,2,0 // vbroadcastss 0x2a009(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16269,12 +16472,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,39,151,2,0 // vbroadcastss 0x29727(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,51,159,2,0 // vbroadcastss 0x29f33(%rip),%ymm14 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,29,151,2,0 // vbroadcastss 0x2971d(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,41,159,2,0 // vbroadcastss 0x29f29(%rip),%ymm15 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,14,151,2,0 // vbroadcastss 0x2970e(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,26,159,2,0 // vbroadcastss 0x29f1a(%rip),%ymm0 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16335,7 +16538,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,187,149,2,0 // vbroadcastss 0x295bb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,199,157,2,0 // vbroadcastss 0x29dc7(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16364,12 +16567,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,109,149,2,0 // vbroadcastss 0x2956d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,121,157,2,0 // vbroadcastss 0x29d79(%rip),%ymm13 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,99,149,2,0 // vbroadcastss 0x29563(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,111,157,2,0 // vbroadcastss 0x29d6f(%rip),%ymm14 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,84,149,2,0 // vbroadcastss 0x29554(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,96,157,2,0 // vbroadcastss 0x29d60(%rip),%ymm15 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16432,7 +16635,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,239,147,2,0 // vbroadcastss 0x293ef(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,251,155,2,0 // vbroadcastss 0x29bfb(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16462,12 +16665,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,157,147,2,0 // vbroadcastss 0x2939d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,169,155,2,0 // vbroadcastss 0x29ba9(%rip),%ymm13 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,147,147,2,0 // vbroadcastss 0x29393(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,159,155,2,0 // vbroadcastss 0x29b9f(%rip),%ymm14 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,132,147,2,0 // vbroadcastss 0x29384(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,144,155,2,0 // vbroadcastss 0x29b90(%rip),%ymm15 # 3ae74 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16530,7 +16733,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,31,146,2,0 // vbroadcastss 0x2921f(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,43,154,2,0 // vbroadcastss 0x29a2b(%rip),%ymm0 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16562,9 +16765,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 111bb <_sk_srcover_rgba_8888_avx+0x177>
+ .byte 15,133,87,1,0,0 // jne 115e3 <_sk_srcover_rgba_8888_avx+0x177>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,5,238,150,2,0 // vmovapd 0x296ee(%rip),%ymm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x7f8>
+ .byte 197,125,40,5,134,159,2,0 // vmovapd 0x29f86(%rip),%ymm8 # 3b420 <_sk_srcover_bgra_8888_sse2_lowp+0x884>
.byte 196,193,53,84,224 // vandpd %ymm8,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
@@ -16583,9 +16786,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,64,145,2,0 // vbroadcastss 0x29140(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,76,153,2,0 // vbroadcastss 0x2994c(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,95,145,2,0 // vbroadcastss 0x2915f(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,107,153,2,0 // vbroadcastss 0x2996b(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
@@ -16626,7 +16829,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 111f3 <_sk_srcover_rgba_8888_avx+0x1af>
+ .byte 117,66 // jne 1161b <_sk_srcover_rgba_8888_avx+0x1af>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16635,33 +16838,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,150,254,255,255 // ja 1106a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,150,254,255,255 // ja 11492 <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 112e4 <_sk_srcover_rgba_8888_avx+0x2a0>
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 1170c <_sk_srcover_rgba_8888_avx+0x2a0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,119,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,119,254,255,255 // jmpq 11492 <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 111b7 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 119,180 // ja 115df <_sk_srcover_rgba_8888_avx+0x173>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11300 <_sk_srcover_rgba_8888_avx+0x2bc>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11728 <_sk_srcover_rgba_8888_avx+0x2bc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 111b7 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 235,152 // jmp 115df <_sk_srcover_rgba_8888_avx+0x173>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,36,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,36,254,255,255 // jmpq 11492 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -16675,10 +16878,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,207,253,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,207,253,255,255 // jmpq 11492 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 233,9,255,255,255 // jmpq 115df <_sk_srcover_rgba_8888_avx+0x173>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -16686,7 +16889,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 233,213,254,255,255 // jmpq 115df <_sk_srcover_rgba_8888_avx+0x173>
.byte 102,144 // xchg %ax,%ax
.byte 4,255 // add $0xff,%al
.byte 255 // (bad)
@@ -16699,7 +16902,7 @@ _sk_srcover_rgba_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 112f9 <_sk_srcover_rgba_8888_avx+0x2b5>
+ .byte 126,255 // jle 11721 <_sk_srcover_rgba_8888_avx+0x2b5>
.byte 255 // (bad)
.byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
@@ -16733,9 +16936,9 @@ _sk_srcover_bgra_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 11493 <_sk_srcover_bgra_8888_avx+0x177>
+ .byte 15,133,87,1,0,0 // jne 118bb <_sk_srcover_bgra_8888_avx+0x177>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,5,54,148,2,0 // vmovapd 0x29436(%rip),%ymm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x818>
+ .byte 197,125,40,5,206,156,2,0 // vmovapd 0x29cce(%rip),%ymm8 # 3b440 <_sk_srcover_bgra_8888_sse2_lowp+0x8a4>
.byte 196,193,53,84,232 // vandpd %ymm8,%ymm9,%ymm5
.byte 197,252,91,245 // vcvtdq2ps %ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
@@ -16754,9 +16957,9 @@ _sk_srcover_bgra_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,104,142,2,0 // vbroadcastss 0x28e68(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,116,150,2,0 // vbroadcastss 0x29674(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,135,142,2,0 // vbroadcastss 0x28e87(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,147,150,2,0 // vbroadcastss 0x29693(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
@@ -16797,7 +17000,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 114cb <_sk_srcover_bgra_8888_avx+0x1af>
+ .byte 117,66 // jne 118f3 <_sk_srcover_bgra_8888_avx+0x1af>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16806,33 +17009,33 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,150,254,255,255 // ja 11342 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 15,135,150,254,255,255 // ja 1176a <_sk_srcover_bgra_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 115bc <_sk_srcover_bgra_8888_avx+0x2a0>
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 119e4 <_sk_srcover_bgra_8888_avx+0x2a0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,119,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,119,254,255,255 // jmpq 1176a <_sk_srcover_bgra_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 1148f <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 119,180 // ja 118b7 <_sk_srcover_bgra_8888_avx+0x173>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 115d8 <_sk_srcover_bgra_8888_avx+0x2bc>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11a00 <_sk_srcover_bgra_8888_avx+0x2bc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 1148f <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 235,152 // jmp 118b7 <_sk_srcover_bgra_8888_avx+0x173>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,36,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,36,254,255,255 // jmpq 1176a <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -16846,10 +17049,10 @@ _sk_srcover_bgra_8888_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,207,253,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 233,207,253,255,255 // jmpq 1176a <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 233,9,255,255,255 // jmpq 118b7 <_sk_srcover_bgra_8888_avx+0x173>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -16857,7 +17060,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 233,213,254,255,255 // jmpq 118b7 <_sk_srcover_bgra_8888_avx+0x173>
.byte 102,144 // xchg %ax,%ax
.byte 4,255 // add $0xff,%al
.byte 255 // (bad)
@@ -16870,7 +17073,7 @@ _sk_srcover_bgra_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 115d1 <_sk_srcover_bgra_8888_avx+0x2b5>
+ .byte 126,255 // jle 119f9 <_sk_srcover_bgra_8888_avx+0x2b5>
.byte 255 // (bad)
.byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
@@ -16908,7 +17111,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,254,139,2,0 // vbroadcastss 0x28bfe(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,10,148,2,0 // vbroadcastss 0x2940a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -16920,7 +17123,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,221,139,2,0 // vbroadcastss 0x28bdd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,233,147,2,0 // vbroadcastss 0x293e9(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -16932,7 +17135,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,191,139,2,0 // vbroadcastss 0x28bbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,203,147,2,0 // vbroadcastss 0x293cb(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -16965,7 +17168,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,122,139,2,0 // vbroadcastss 0x28b7a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,134,147,2,0 // vbroadcastss 0x29386(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -17019,9 +17222,9 @@ HIDDEN _sk_unpremul_avx
.globl _sk_unpremul_avx
FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
- .byte 196,98,125,24,5,21,139,2,0 // vbroadcastss 0x28b15(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,33,147,2,0 // vbroadcastss 0x29321(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,56,139,2,0 // vbroadcastss 0x28b38(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,68,147,2,0 // vbroadcastss 0x29344(%rip),%ymm9 # 3ae7c <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -17035,17 +17238,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,18,139,2,0 // vbroadcastss 0x28b12(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,30,147,2,0 // vbroadcastss 0x2931e(%rip),%ymm8 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,236,138,2,0 // vbroadcastss 0x28aec(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,248,146,2,0 // vbroadcastss 0x292f8(%rip),%ymm11 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,246,138,2,0 // vbroadcastss 0x28af6(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,2,147,2,0 // vbroadcastss 0x29302(%rip),%ymm13 # 3ae84 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,231,138,2,0 // vbroadcastss 0x28ae7(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,243,146,2,0 // vbroadcastss 0x292f3(%rip),%ymm12 # 3ae88 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,221,138,2,0 // vbroadcastss 0x28add(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,233,146,2,0 // vbroadcastss 0x292e9(%rip),%ymm14 # 3ae8c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -17071,17 +17274,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,102,138,2,0 // vbroadcastss 0x28a66(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,114,146,2,0 // vbroadcastss 0x29272(%rip),%ymm8 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,64,138,2,0 // vbroadcastss 0x28a40(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,76,146,2,0 // vbroadcastss 0x2924c(%rip),%ymm11 # 3ae6c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,74,138,2,0 // vbroadcastss 0x28a4a(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,86,146,2,0 // vbroadcastss 0x29256(%rip),%ymm13 # 3ae84 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,59,138,2,0 // vbroadcastss 0x28a3b(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,71,146,2,0 // vbroadcastss 0x29247(%rip),%ymm12 # 3ae88 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,49,138,2,0 // vbroadcastss 0x28a31(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,61,146,2,0 // vbroadcastss 0x2923d(%rip),%ymm14 # 3ae8c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -17108,20 +17311,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,198,137,2,0 // vbroadcastss 0x289c6(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,210,145,2,0 // vbroadcastss 0x291d2(%rip),%ymm8 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,192,137,2,0 // vbroadcastss 0x289c0(%rip),%ymm11 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,204,145,2,0 // vbroadcastss 0x291cc(%rip),%ymm11 # 3ae98 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,174,137,2,0 // vbroadcastss 0x289ae(%rip),%ymm13 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,45,186,145,2,0 // vbroadcastss 0x291ba(%rip),%ymm13 # 3ae94 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,211,138,2,0 // vbroadcastss 0x28ad3(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,223,146,2,0 // vbroadcastss 0x292df(%rip),%ymm14 # 3afcc <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,201,138,2,0 // vbroadcastss 0x28ac9(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,213,146,2,0 // vbroadcastss 0x292d5(%rip),%ymm15 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,133,137,2,0 // vbroadcastss 0x28985(%rip),%ymm12 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,37,145,145,2,0 // vbroadcastss 0x29191(%rip),%ymm12 # 3aea4 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -17158,7 +17361,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,141,136,2,0 // vbroadcastss 0x2888d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,153,144,2,0 // vbroadcastss 0x29099(%rip),%ymm11 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -17168,19 +17371,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,190,136,2,0 // vbroadcastss 0x288be(%rip),%ymm11 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,29,202,144,2,0 // vbroadcastss 0x290ca(%rip),%ymm11 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,172,136,2,0 // vbroadcastss 0x288ac(%rip),%ymm11 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,29,184,144,2,0 // vbroadcastss 0x290b8(%rip),%ymm11 # 3aeac <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,148,136,2,0 // vbroadcastss 0x28894(%rip),%ymm2 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,226,125,24,21,160,144,2,0 // vbroadcastss 0x290a0(%rip),%ymm2 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,11,136,2,0 // vbroadcastss 0x2880b(%rip),%ymm12 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,23,144,2,0 // vbroadcastss 0x29017(%rip),%ymm12 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -17190,7 +17393,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,62,136,2,0 // vbroadcastss 0x2883e(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,74,144,2,0 // vbroadcastss 0x2904a(%rip),%ymm8 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17207,7 +17410,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,151,135,2,0 // vbroadcastss 0x28797(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,163,143,2,0 // vbroadcastss 0x28fa3(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -17215,23 +17418,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,221,135,2,0 // vbroadcastss 0x287dd(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,233,143,2,0 // vbroadcastss 0x28fe9(%rip),%ymm11 # 3aeb8 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,175,135,2,0 // vbroadcastss 0x287af(%rip),%ymm12 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,37,187,143,2,0 // vbroadcastss 0x28fbb(%rip),%ymm12 # 3aea8 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,169,135,2,0 // vbroadcastss 0x287a9(%rip),%ymm13 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,45,181,143,2,0 // vbroadcastss 0x28fb5(%rip),%ymm13 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,158,135,2,0 // vbroadcastss 0x2879e(%rip),%ymm1 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,13,170,143,2,0 // vbroadcastss 0x28faa(%rip),%ymm1 # 3aebc <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,117,135,2,0 // vbroadcastss 0x28775(%rip),%ymm14 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,53,129,143,2,0 // vbroadcastss 0x28f81(%rip),%ymm14 # 3aeb4 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -17250,7 +17453,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,31,135,2,0 // vbroadcastss 0x2871f(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,43,143,2,0 // vbroadcastss 0x28f2b(%rip),%ymm0 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -17304,15 +17507,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 11c73 <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 1209b <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,186,142,2,0 // vpand 0x28eba(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,57,219,5,146,151,2,0 // vpand 0x29792(%rip),%xmm8,%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,54,134,2,0 // vbroadcastss 0x28636(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,66,142,2,0 // vbroadcastss 0x28e42(%rip),%ymm9 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -17325,15 +17528,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 11c2e <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 12056 <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 11d0c <_sk_scale_u8_avx+0xfc>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12134 <_sk_scale_u8_avx+0xfc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 11c2e <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 12056 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17341,7 +17544,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 12056 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17352,7 +17555,7 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 12056 <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17386,26 +17589,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 11df9 <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 12221 <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,40,133,2,0 // vbroadcastss 0x28528(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,52,141,2,0 // vbroadcastss 0x28d34(%rip),%ymm9 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,25,133,2,0 // vbroadcastss 0x28519(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,37,141,2,0 // vbroadcastss 0x28d25(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,15,133,2,0 // vbroadcastss 0x2850f(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,27,141,2,0 // vbroadcastss 0x28d1b(%rip),%ymm10 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,0,133,2,0 // vbroadcastss 0x28500(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,12,141,2,0 // vbroadcastss 0x28d0c(%rip),%ymm11 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,246,132,2,0 // vbroadcastss 0x284f6(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,2,141,2,0 // vbroadcastss 0x28d02(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,231,132,2,0 // vbroadcastss 0x284e7(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,243,140,2,0 // vbroadcastss 0x28cf3(%rip),%ymm11 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17424,27 +17627,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 11d4d <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 12175 <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11e80 <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 122a8 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 12175 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 12175 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 12175 <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17496,15 +17699,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 11f62 <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 1238a <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,239,139,2,0 // vpand 0x28bef(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,57,219,5,199,148,2,0 // vpand 0x294c7(%rip),%xmm8,%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,107,131,2,0 // vbroadcastss 0x2836b(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,119,139,2,0 // vbroadcastss 0x28b77(%rip),%ymm9 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -17525,15 +17728,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 11ef9 <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 12321 <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 12000 <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 12428 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 12321 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17541,7 +17744,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 12321 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17552,7 +17755,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 12321 <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -17560,7 +17763,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde012010 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd80a8>
+ .byte 232,255,255,255,221 // callq ffffffffde012438 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd789c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -17583,26 +17786,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 12111 <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 12539 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,52,130,2,0 // vbroadcastss 0x28234(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,64,138,2,0 // vbroadcastss 0x28a40(%rip),%ymm9 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,37,130,2,0 // vbroadcastss 0x28225(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,49,138,2,0 // vbroadcastss 0x28a31(%rip),%ymm10 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,27,130,2,0 // vbroadcastss 0x2821b(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,39,138,2,0 // vbroadcastss 0x28a27(%rip),%ymm10 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,12,130,2,0 // vbroadcastss 0x2820c(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,24,138,2,0 // vbroadcastss 0x28a18(%rip),%ymm11 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,14,138,2,0 // vbroadcastss 0x28a0e(%rip),%ymm11 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,243,129,2,0 // vbroadcastss 0x281f3(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,255,137,2,0 // vbroadcastss 0x289ff(%rip),%ymm11 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17629,27 +17832,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 12041 <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 12469 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 12198 <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 125c0 <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 12469 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 12469 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 12469 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17677,9 +17880,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 123cc <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 127f4 <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,202,133,2,0 // vmovapd 0x285ca(%rip),%ymm9 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x838>
+ .byte 197,125,40,13,98,142,2,0 // vmovapd 0x28e62(%rip),%ymm9 # 3b460 <_sk_srcover_bgra_8888_sse2_lowp+0x8c4>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -17771,7 +17974,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,210,126,2,0 // vbroadcastss 0x27ed2(%rip),%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,61,222,134,2,0 // vbroadcastss 0x286de(%rip),%ymm7 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -17781,21 +17984,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 121ce <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 125f6 <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 12484 <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 128ac <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 125f6 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 125f6 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -17809,9 +18012,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 125f6 <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 12485 <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 128ad <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -17841,7 +18044,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 1270d <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 12b35 <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -17857,7 +18060,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,220,133,2,0 // vmovdqa 0x285dc(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,121,111,29,180,142,2,0 // vmovdqa 0x28eb4(%rip),%xmm11 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -17951,7 +18154,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,179,123,2,0 // vbroadcastss 0x27bb3(%rip),%ymm6 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,226,125,24,53,191,131,2,0 // vbroadcastss 0x283bf(%rip),%ymm6 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -17960,29 +18163,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 12773 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 12b9b <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 12773 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 12b9b <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 12780 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 12ba8 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 12780 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 12ba8 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 124dd <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 12905 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 124dd <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 12905 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 12905 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 12905 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 12905 <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -17994,7 +18197,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 129dd <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 12e05 <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -18015,7 +18218,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,220,130,2,0 // vmovdqa 0x282dc(%rip),%xmm14 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,121,111,53,180,139,2,0 // vmovdqa 0x28bb4(%rip),%xmm14 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -18101,7 +18304,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,73,120,2,0 // vbroadcastss 0x27849(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,85,128,2,0 // vbroadcastss 0x28055(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -18109,63 +18312,63 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 12a15 <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 12e3d <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 12c04 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 12a5f <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 12e87 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 12a79 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 12ea1 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 12c04 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 12c04 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 12aba <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 12ee2 <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 12acb <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 12ef3 <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 12c04 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 12c04 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 12afe <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 12f26 <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 12c04 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 12c04 <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
@@ -18178,9 +18381,9 @@ _sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,235,118,2,0 // vbroadcastss 0x276eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,247,126,2,0 // vbroadcastss 0x27ef7(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,9,119,2,0 // vbroadcastss 0x27709(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,21,127,2,0 // vbroadcastss 0x27f15(%rip),%ymm10 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
.byte 196,65,249,126,216 // vmovq %xmm11,%r8
@@ -18318,7 +18521,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,186,116,2,0 // vbroadcastss 0x274ba(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,198,124,2,0 // vbroadcastss 0x27cc6(%rip),%ymm9 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
@@ -18356,7 +18559,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,21,165,115,2,0 // vbroadcastss 0x273a5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,177,123,2,0 // vbroadcastss 0x27bb1(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
@@ -18461,7 +18664,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,35,114,2,0 // vbroadcastss 0x27223(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,47,122,2,0 // vbroadcastss 0x27a2f(%rip),%ymm9 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
@@ -18495,7 +18698,7 @@ _sk_table_r_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,50,113,2,0 // vbroadcastss 0x27132(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,62,121,2,0 // vbroadcastss 0x2793e(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
@@ -18550,7 +18753,7 @@ _sk_table_g_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 196,98,125,24,13,89,112,2,0 // vbroadcastss 0x27059(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,101,120,2,0 // vbroadcastss 0x27865(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
@@ -18605,7 +18808,7 @@ _sk_table_b_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,210 // vmaxps %ymm2,%ymm9,%ymm2
- .byte 196,98,125,24,13,128,111,2,0 // vbroadcastss 0x26f80(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,140,119,2,0 // vbroadcastss 0x2778c(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -18660,7 +18863,7 @@ _sk_table_a_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3
- .byte 196,98,125,24,13,167,110,2,0 // vbroadcastss 0x26ea7(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,179,118,2,0 // vbroadcastss 0x276b3(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,217 // vminps %ymm9,%ymm3,%ymm3
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
@@ -18716,36 +18919,36 @@ _sk_parametric_r_avx:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,74,110,2,0 // vbroadcastss 0x26e4a(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,86,118,2,0 // vbroadcastss 0x27656(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,64,110,2,0 // vbroadcastss 0x26e40(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,76,118,2,0 // vbroadcastss 0x2764c(%rip),%ymm14 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,146,109,2,0 // vbroadcastss 0x26d92(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,158,117,2,0 // vbroadcastss 0x2759e(%rip),%ymm14 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,40,110,2,0 // vbroadcastss 0x26e28(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,52,118,2,0 // vbroadcastss 0x27634(%rip),%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,30,110,2,0 // vbroadcastss 0x26e1e(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,42,118,2,0 // vbroadcastss 0x2762a(%rip),%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,15,110,2,0 // vbroadcastss 0x26e0f(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,27,118,2,0 // vbroadcastss 0x2761b(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,5,110,2,0 // vbroadcastss 0x26e05(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,17,118,2,0 // vbroadcastss 0x27611(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,230,109,2,0 // vbroadcastss 0x26de6(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,242,117,2,0 // vbroadcastss 0x275f2(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,220,109,2,0 // vbroadcastss 0x26ddc(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,232,117,2,0 // vbroadcastss 0x275e8(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,205,109,2,0 // vbroadcastss 0x26dcd(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,217,117,2,0 // vbroadcastss 0x275d9(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,195,109,2,0 // vbroadcastss 0x26dc3(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,207,117,2,0 // vbroadcastss 0x275cf(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,180,109,2,0 // vbroadcastss 0x26db4(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,192,117,2,0 // vbroadcastss 0x275c0(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -18753,7 +18956,7 @@ _sk_parametric_r_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,210,116,2,0 // vbroadcastss 0x274d2(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18777,36 +18980,36 @@ _sk_parametric_g_avx:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,1,109,2,0 // vbroadcastss 0x26d01(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,13,117,2,0 // vbroadcastss 0x2750d(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,247,108,2,0 // vbroadcastss 0x26cf7(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,3,117,2,0 // vbroadcastss 0x27503(%rip),%ymm14 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,73,108,2,0 // vbroadcastss 0x26c49(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,85,116,2,0 // vbroadcastss 0x27455(%rip),%ymm14 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,223,108,2,0 // vbroadcastss 0x26cdf(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,235,116,2,0 // vbroadcastss 0x274eb(%rip),%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,213,108,2,0 // vbroadcastss 0x26cd5(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,225,116,2,0 // vbroadcastss 0x274e1(%rip),%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,210,116,2,0 // vbroadcastss 0x274d2(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,188,108,2,0 // vbroadcastss 0x26cbc(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,200,116,2,0 // vbroadcastss 0x274c8(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,157,108,2,0 // vbroadcastss 0x26c9d(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,169,116,2,0 // vbroadcastss 0x274a9(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,147,108,2,0 // vbroadcastss 0x26c93(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,159,116,2,0 // vbroadcastss 0x2749f(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,132,108,2,0 // vbroadcastss 0x26c84(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,144,116,2,0 // vbroadcastss 0x27490(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,122,108,2,0 // vbroadcastss 0x26c7a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,134,116,2,0 // vbroadcastss 0x27486(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,107,108,2,0 // vbroadcastss 0x26c6b(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,119,116,2,0 // vbroadcastss 0x27477(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -18814,7 +19017,7 @@ _sk_parametric_g_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,137,115,2,0 // vbroadcastss 0x27389(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18838,36 +19041,36 @@ _sk_parametric_b_avx:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,184,107,2,0 // vbroadcastss 0x26bb8(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,196,115,2,0 // vbroadcastss 0x273c4(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,174,107,2,0 // vbroadcastss 0x26bae(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,186,115,2,0 // vbroadcastss 0x273ba(%rip),%ymm14 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,0,107,2,0 // vbroadcastss 0x26b00(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,12,115,2,0 // vbroadcastss 0x2730c(%rip),%ymm14 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,150,107,2,0 // vbroadcastss 0x26b96(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,162,115,2,0 // vbroadcastss 0x273a2(%rip),%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,140,107,2,0 // vbroadcastss 0x26b8c(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,152,115,2,0 // vbroadcastss 0x27398(%rip),%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,137,115,2,0 // vbroadcastss 0x27389(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,115,107,2,0 // vbroadcastss 0x26b73(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,127,115,2,0 // vbroadcastss 0x2737f(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,84,107,2,0 // vbroadcastss 0x26b54(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,96,115,2,0 // vbroadcastss 0x27360(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,74,107,2,0 // vbroadcastss 0x26b4a(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,86,115,2,0 // vbroadcastss 0x27356(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,59,107,2,0 // vbroadcastss 0x26b3b(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,71,115,2,0 // vbroadcastss 0x27347(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,49,107,2,0 // vbroadcastss 0x26b31(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,61,115,2,0 // vbroadcastss 0x2733d(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,34,107,2,0 // vbroadcastss 0x26b22(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,46,115,2,0 // vbroadcastss 0x2732e(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -18875,7 +19078,7 @@ _sk_parametric_b_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,64,114,2,0 // vbroadcastss 0x27240(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18899,36 +19102,36 @@ _sk_parametric_a_avx:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,111,106,2,0 // vbroadcastss 0x26a6f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,123,114,2,0 // vbroadcastss 0x2727b(%rip),%ymm14 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,101,106,2,0 // vbroadcastss 0x26a65(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,113,114,2,0 // vbroadcastss 0x27271(%rip),%ymm14 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,183,105,2,0 // vbroadcastss 0x269b7(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,195,113,2,0 // vbroadcastss 0x271c3(%rip),%ymm14 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,77,106,2,0 // vbroadcastss 0x26a4d(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,89,114,2,0 // vbroadcastss 0x27259(%rip),%ymm14 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,67,106,2,0 // vbroadcastss 0x26a43(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,79,114,2,0 // vbroadcastss 0x2724f(%rip),%ymm14 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,64,114,2,0 // vbroadcastss 0x27240(%rip),%ymm14 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,42,106,2,0 // vbroadcastss 0x26a2a(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,54,114,2,0 // vbroadcastss 0x27236(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,11,106,2,0 // vbroadcastss 0x26a0b(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,23,114,2,0 // vbroadcastss 0x27217(%rip),%ymm13 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,1,106,2,0 // vbroadcastss 0x26a01(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,13,114,2,0 // vbroadcastss 0x2720d(%rip),%ymm13 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,242,105,2,0 // vbroadcastss 0x269f2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,254,113,2,0 // vbroadcastss 0x271fe(%rip),%ymm13 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,232,105,2,0 // vbroadcastss 0x269e8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,244,113,2,0 // vbroadcastss 0x271f4(%rip),%ymm13 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,217,105,2,0 // vbroadcastss 0x269d9(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,229,113,2,0 // vbroadcastss 0x271e5(%rip),%ymm12 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -18936,7 +19139,7 @@ _sk_parametric_a_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,235,104,2,0 // vbroadcastss 0x268eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,247,112,2,0 // vbroadcastss 0x270f7(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18955,22 +19158,22 @@ _sk_gamma_avx:
.byte 197,252,17,76,36,128 // vmovups %ymm1,-0x80(%rsp)
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
.byte 197,252,91,204 // vcvtdq2ps %ymm4,%ymm1
- .byte 196,226,125,24,5,54,105,2,0 // vbroadcastss 0x26936(%rip),%ymm0 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,66,113,2,0 // vbroadcastss 0x27142(%rip),%ymm0 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,124,40,192 // vmovaps %ymm0,%ymm8
.byte 197,124,17,68,36,160 // vmovups %ymm8,-0x60(%rsp)
- .byte 196,98,125,24,13,35,105,2,0 // vbroadcastss 0x26923(%rip),%ymm9 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,13,47,113,2,0 // vbroadcastss 0x2712f(%rip),%ymm9 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,209 // vandps %ymm9,%ymm4,%ymm2
- .byte 196,98,125,24,21,117,104,2,0 // vbroadcastss 0x26875(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,129,112,2,0 // vbroadcastss 0x27081(%rip),%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,108,86,210 // vorps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,29,11,105,2,0 // vbroadcastss 0x2690b(%rip),%ymm11 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,29,23,113,2,0 // vbroadcastss 0x27117(%rip),%ymm11 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,1,105,2,0 // vbroadcastss 0x26901(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,13,113,2,0 // vbroadcastss 0x2710d(%rip),%ymm12 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,108,89,220 // vmulps %ymm12,%ymm2,%ymm3
.byte 197,244,92,203 // vsubps %ymm3,%ymm1,%ymm1
- .byte 196,98,125,24,45,243,104,2,0 // vbroadcastss 0x268f3(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,255,112,2,0 // vbroadcastss 0x270ff(%rip),%ymm13 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 196,98,125,24,53,233,104,2,0 // vbroadcastss 0x268e9(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,245,112,2,0 // vbroadcastss 0x270f5(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,210 // vdivps %ymm2,%ymm14,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -18978,19 +19181,19 @@ _sk_gamma_avx:
.byte 197,244,89,206 // vmulps %ymm6,%ymm1,%ymm1
.byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
.byte 197,244,92,234 // vsubps %ymm2,%ymm1,%ymm5
- .byte 196,98,125,24,61,199,104,2,0 // vbroadcastss 0x268c7(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,211,112,2,0 // vbroadcastss 0x270d3(%rip),%ymm15 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1
- .byte 196,226,125,24,61,189,104,2,0 // vbroadcastss 0x268bd(%rip),%ymm7 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,226,125,24,61,201,112,2,0 // vbroadcastss 0x270c9(%rip),%ymm7 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 197,212,89,215 // vmulps %ymm7,%ymm5,%ymm2
.byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 196,226,125,24,29,176,104,2,0 // vbroadcastss 0x268b0(%rip),%ymm3 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,29,188,112,2,0 // vbroadcastss 0x270bc(%rip),%ymm3 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,228,92,237 // vsubps %ymm5,%ymm3,%ymm5
- .byte 196,226,125,24,21,167,104,2,0 // vbroadcastss 0x268a7(%rip),%ymm2 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,21,179,112,2,0 // vbroadcastss 0x270b3(%rip),%ymm2 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,236,94,237 // vdivps %ymm5,%ymm2,%ymm5
.byte 197,252,88,197 // vaddps %ymm5,%ymm0,%ymm0
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 197,220,194,205,0 // vcmpeqps %ymm5,%ymm4,%ymm1
- .byte 196,226,125,24,37,145,104,2,0 // vbroadcastss 0x26891(%rip),%ymm4 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,37,157,112,2,0 // vbroadcastss 0x2709d(%rip),%ymm4 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,197,16 // vblendvps %ymm1,%ymm5,%ymm0,%ymm0
@@ -19072,23 +19275,23 @@ _sk_gamma_dst_avx:
.byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
.byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
.byte 197,252,91,196 // vcvtdq2ps %ymm4,%ymm0
- .byte 196,226,125,24,29,230,102,2,0 // vbroadcastss 0x266e6(%rip),%ymm3 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,29,242,110,2,0 // vbroadcastss 0x26ef2(%rip),%ymm3 # 3aee4 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,221,102,2,0 // vbroadcastss 0x266dd(%rip),%ymm1 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,226,125,24,13,233,110,2,0 // vbroadcastss 0x26ee9(%rip),%ymm1 # 3aee8 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,220,84,201 // vandps %ymm1,%ymm4,%ymm1
- .byte 196,226,125,24,21,43,102,2,0 // vbroadcastss 0x2662b(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,55,110,2,0 // vbroadcastss 0x26e37(%rip),%ymm2 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,188,102,2,0 // vbroadcastss 0x266bc(%rip),%ymm2 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,226,125,24,21,200,110,2,0 // vbroadcastss 0x26ec8(%rip),%ymm2 # 3aeec <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,37,173,102,2,0 // vbroadcastss 0x266ad(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,185,110,2,0 // vbroadcastss 0x26eb9(%rip),%ymm12 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,45,159,102,2,0 // vbroadcastss 0x2669f(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,171,110,2,0 // vbroadcastss 0x26eab(%rip),%ymm13 # 3aef4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 196,98,125,24,53,149,102,2,0 // vbroadcastss 0x26695(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,161,110,2,0 // vbroadcastss 0x26ea1(%rip),%ymm14 # 3aef8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -19096,19 +19299,19 @@ _sk_gamma_dst_avx:
.byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,61,115,102,2,0 // vbroadcastss 0x26673(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,127,110,2,0 // vbroadcastss 0x26e7f(%rip),%ymm15 # 3aefc <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,98,125,24,29,105,102,2,0 // vbroadcastss 0x26669(%rip),%ymm11 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,117,110,2,0 // vbroadcastss 0x26e75(%rip),%ymm11 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,21,91,102,2,0 // vbroadcastss 0x2665b(%rip),%ymm10 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,21,103,110,2,0 // vbroadcastss 0x26e67(%rip),%ymm10 # 3af04 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,172,92,241 // vsubps %ymm1,%ymm10,%ymm6
- .byte 196,98,125,24,13,82,102,2,0 // vbroadcastss 0x26652(%rip),%ymm9 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,13,94,110,2,0 // vbroadcastss 0x26e5e(%rip),%ymm9 # 3af08 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6
.byte 197,252,88,198 // vaddps %ymm6,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,220,194,225,0 // vcmpeqps %ymm1,%ymm4,%ymm4
- .byte 196,226,125,24,61,60,102,2,0 // vbroadcastss 0x2663c(%rip),%ymm7 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,61,72,110,2,0 // vbroadcastss 0x26e48(%rip),%ymm7 # 3af0c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,193,64 // vblendvps %ymm4,%ymm1,%ymm0,%ymm0
@@ -19182,31 +19385,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,231,100,2,0 // vbroadcastss 0x264e7(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,5,243,108,2,0 // vbroadcastss 0x26cf3(%rip),%ymm8 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,65,100,2,0 // vbroadcastss 0x26441(%rip),%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,77,108,2,0 // vbroadcastss 0x26c4d(%rip),%ymm8 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,207,100,2,0 // vbroadcastss 0x264cf(%rip),%ymm9 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,13,219,108,2,0 // vbroadcastss 0x26cdb(%rip),%ymm9 # 3af14 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,187,100,2,0 // vbroadcastss 0x264bb(%rip),%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,5,199,108,2,0 // vbroadcastss 0x26cc7(%rip),%ymm8 # 3af18 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,177,100,2,0 // vbroadcastss 0x264b1(%rip),%ymm8 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,98,125,24,5,189,108,2,0 // vbroadcastss 0x26cbd(%rip),%ymm8 # 3af1c <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,167,100,2,0 // vbroadcastss 0x264a7(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,179,108,2,0 // vbroadcastss 0x26cb3(%rip),%ymm8 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,153,100,2,0 // vbroadcastss 0x26499(%rip),%ymm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,5,165,108,2,0 // vbroadcastss 0x26ca5(%rip),%ymm8 # 3af24 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,130,100,2,0 // vbroadcastss 0x26482(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,142,108,2,0 // vbroadcastss 0x26c8e(%rip),%ymm9 # 3af28 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,119,100,2,0 // vbroadcastss 0x26477(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,131,108,2,0 // vbroadcastss 0x26c83(%rip),%ymm11 # 3af2c <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,109,100,2,0 // vbroadcastss 0x2646d(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,121,108,2,0 // vbroadcastss 0x26c79(%rip),%ymm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -19221,9 +19424,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,35,100,2,0 // vbroadcastss 0x26423(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,47,108,2,0 // vbroadcastss 0x26c2f(%rip),%ymm0 # 3af34 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,26,100,2,0 // vbroadcastss 0x2641a(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,38,108,2,0 // vbroadcastss 0x26c26(%rip),%ymm8 # 3af38 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19239,15 +19442,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 13f4f <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 14377 <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,215,107,2,0 // vpand 0x26bd7(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,249,219,5,175,116,2,0 // vpand 0x274af(%rip),%xmm0,%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,85,99,2,0 // vbroadcastss 0x26355(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,97,107,2,0 // vbroadcastss 0x26b61(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19259,15 +19462,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 13f11 <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 14339 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 13fe8 <_sk_load_a8_avx+0xf5>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 14410 <_sk_load_a8_avx+0xf5>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp 13f11 <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 14339 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19275,7 +19478,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 14339 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19286,7 +19489,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 14339 <_sk_load_a8_avx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 143 // (bad)
.byte 255 // (bad)
@@ -19319,15 +19522,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 14060 <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 14488 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,198,106,2,0 // vpand 0x26ac6(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,217,219,37,158,115,2,0 // vpand 0x2739e(%rip),%xmm4,%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,68,98,2,0 // vbroadcastss 0x26244(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,80,106,2,0 // vbroadcastss 0x26a50(%rip),%ymm5 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19339,15 +19542,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 14022 <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 1444a <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 140f8 <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 14520 <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp 14022 <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 1444a <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19355,7 +19558,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 1444a <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19366,7 +19569,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 1444a <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19375,7 +19578,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde014108 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda1a0>
+ .byte 232,255,255,255,221 // callq ffffffffde014530 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd9994>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19455,7 +19658,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,74,96,2,0 // vbroadcastss 0x2604a(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,86,104,2,0 // vbroadcastss 0x26856(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19480,16 +19683,16 @@ _sk_store_a8_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,145,95,2,0 // vbroadcastss 0x25f91(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,157,103,2,0 // vbroadcastss 0x2679d(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,175,95,2,0 // vbroadcastss 0x25faf(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,187,103,2,0 // vbroadcastss 0x267bb(%rip),%ymm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 142bd <_sk_store_a8_avx+0x5b>
+ .byte 117,10 // jne 146e5 <_sk_store_a8_avx+0x5b>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19497,25 +19700,25 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 142b9 <_sk_store_a8_avx+0x57>
+ .byte 119,236 // ja 146e1 <_sk_store_a8_avx+0x57>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,87,0,0,0 // lea 0x57(%rip),%r10 # 14334 <_sk_store_a8_avx+0xd2>
+ .byte 76,141,21,87,0,0,0 // lea 0x57(%rip),%r10 # 1475c <_sk_store_a8_avx+0xd2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 142b9 <_sk_store_a8_avx+0x57>
+ .byte 235,202 // jmp 146e1 <_sk_store_a8_avx+0x57>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,0,104,2,0 // vpshufb 0x26800(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 196,98,57,0,5,216,112,2,0 // vpshufb 0x270d8(%rip),%xmm8,%xmm8 # 3b800 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 142b9 <_sk_store_a8_avx+0x57>
+ .byte 235,176 // jmp 146e1 <_sk_store_a8_avx+0x57>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,230,103,2,0 // vpshufb 0x267e6(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
+ .byte 196,98,57,0,5,190,112,2,0 // vpshufb 0x270be(%rip),%xmm8,%xmm8 # 3b810 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 142b9 <_sk_store_a8_avx+0x57>
+ .byte 235,135 // jmp 146e1 <_sk_store_a8_avx+0x57>
.byte 102,144 // xchg %ax,%ax
.byte 178,255 // mov $0xff,%dl
.byte 255 // (bad)
@@ -19548,18 +19751,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 143b1 <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 147d9 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,122,103,2,0 // vpand 0x2677a(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,249,219,5,82,112,2,0 // vpand 0x27052(%rip),%xmm0,%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,248,94,2,0 // vbroadcastss 0x25ef8(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,4,103,2,0 // vbroadcastss 0x26704(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,113,94,2,0 // vbroadcastss 0x25e71(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,125,102,2,0 // vbroadcastss 0x2667d(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19568,15 +19771,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 1436e <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 14796 <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14448 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14870 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp 1436e <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 14796 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19584,7 +19787,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 14796 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19595,7 +19798,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 14796 <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19604,7 +19807,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf014458 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda4f0>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf014880 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd9ce4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19626,18 +19829,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 144c5 <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 148ed <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,102,102,2,0 // vpand 0x26666(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 197,217,219,37,62,111,2,0 // vpand 0x26f3e(%rip),%xmm4,%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,228,93,2,0 // vbroadcastss 0x25de4(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,240,101,2,0 // vbroadcastss 0x265f0(%rip),%ymm5 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,93,93,2,0 // vbroadcastss 0x25d5d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,105,101,2,0 // vbroadcastss 0x26569(%rip),%ymm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -19646,15 +19849,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 14482 <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 148aa <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 1455c <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14984 <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp 14482 <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 148aa <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19662,7 +19865,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 148aa <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19673,7 +19876,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 148aa <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19682,7 +19885,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf01456c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda604>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf014994 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd9df8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19762,10 +19965,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,230,91,2,0 // vbroadcastss 0x25be6(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,242,99,2,0 // vbroadcastss 0x263f2(%rip),%ymm1 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,95,91,2,0 // vbroadcastss 0x25b5f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,107,99,2,0 // vbroadcastss 0x2636b(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -19787,56 +19990,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 1476c <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 14b94 <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,134,91,2,0 // vbroadcastss 0x25b86(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,146,99,2,0 // vbroadcastss 0x26392(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,121,91,2,0 // vbroadcastss 0x25b79(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,133,99,2,0 // vbroadcastss 0x26385(%rip),%ymm1 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,112,91,2,0 // vbroadcastss 0x25b70(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,124,99,2,0 // vbroadcastss 0x2637c(%rip),%ymm1 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,99,91,2,0 // vbroadcastss 0x25b63(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,111,99,2,0 // vbroadcastss 0x2636f(%rip),%ymm3 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,90,91,2,0 // vbroadcastss 0x25b5a(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,102,99,2,0 // vbroadcastss 0x26366(%rip),%ymm3 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,77,91,2,0 // vbroadcastss 0x25b4d(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,89,99,2,0 // vbroadcastss 0x26359(%rip),%ymm3 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,174,90,2,0 // vbroadcastss 0x25aae(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,186,98,2,0 // vbroadcastss 0x262ba(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 146f0 <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 14b18 <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 147f0 <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 14c18 <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 14b18 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 14b18 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 14b18 <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -19868,56 +20071,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 148ad <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 14cd5 <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,69,90,2,0 // vbroadcastss 0x25a45(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,37,81,98,2,0 // vbroadcastss 0x26251(%rip),%ymm4 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,56,90,2,0 // vbroadcastss 0x25a38(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,68,98,2,0 // vbroadcastss 0x26244(%rip),%ymm5 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,47,90,2,0 // vbroadcastss 0x25a2f(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,45,59,98,2,0 // vbroadcastss 0x2623b(%rip),%ymm5 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,34,90,2,0 // vbroadcastss 0x25a22(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,46,98,2,0 // vbroadcastss 0x2622e(%rip),%ymm7 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,25,90,2,0 // vbroadcastss 0x25a19(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,61,37,98,2,0 // vbroadcastss 0x26225(%rip),%ymm7 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,12,90,2,0 // vbroadcastss 0x25a0c(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,24,98,2,0 // vbroadcastss 0x26218(%rip),%ymm7 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,109,89,2,0 // vbroadcastss 0x2596d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,121,97,2,0 // vbroadcastss 0x26179(%rip),%ymm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 14831 <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 14c59 <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14934 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14d5c <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 14c59 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 14c59 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 14c59 <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20010,23 +20213,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,21,88,2,0 // vbroadcastss 0x25815(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,33,96,2,0 // vbroadcastss 0x26021(%rip),%ymm0 # 3aec8 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,8,88,2,0 // vbroadcastss 0x25808(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,20,96,2,0 // vbroadcastss 0x26014(%rip),%ymm1 # 3aecc <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,255,87,2,0 // vbroadcastss 0x257ff(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,11,96,2,0 // vbroadcastss 0x2600b(%rip),%ymm1 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,242,87,2,0 // vbroadcastss 0x257f2(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,254,95,2,0 // vbroadcastss 0x25ffe(%rip),%ymm3 # 3aed4 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,233,87,2,0 // vbroadcastss 0x257e9(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,245,95,2,0 // vbroadcastss 0x25ff5(%rip),%ymm3 # 3aed8 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,220,87,2,0 // vbroadcastss 0x257dc(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,232,95,2,0 // vbroadcastss 0x25fe8(%rip),%ymm3 # 3aedc <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,61,87,2,0 // vbroadcastss 0x2573d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,73,95,2,0 // vbroadcastss 0x25f49(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -20047,9 +20250,9 @@ _sk_store_565_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,11,87,2,0 // vbroadcastss 0x2570b(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,23,95,2,0 // vbroadcastss 0x25f17(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,237,87,2,0 // vbroadcastss 0x257ed(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,249,95,2,0 // vbroadcastss 0x25ff9(%rip),%ymm11 # 3af3c <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,25,114,241,11 // vpslld $0xb,%xmm9,%xmm12
@@ -20058,7 +20261,7 @@ _sk_store_565_avx:
.byte 196,67,29,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm12,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,189,87,2,0 // vbroadcastss 0x257bd(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,45,201,95,2,0 // vbroadcastss 0x25fc9(%rip),%ymm13 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,17,114,244,5 // vpslld $0x5,%xmm12,%xmm13
@@ -20074,7 +20277,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14ba8 <_sk_store_565_avx+0xc3>
+ .byte 117,10 // jne 14fd0 <_sk_store_565_avx+0xc3>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20082,22 +20285,22 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14ba4 <_sk_store_565_avx+0xbf>
+ .byte 119,236 // ja 14fcc <_sk_store_565_avx+0xbf>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # 14c08 <_sk_store_565_avx+0x123>
+ .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # 15030 <_sk_store_565_avx+0x123>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 14ba4 <_sk_store_565_avx+0xbf>
+ .byte 235,207 // jmp 14fcc <_sk_store_565_avx+0xbf>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 14ba4 <_sk_store_565_avx+0xbf>
+ .byte 235,191 // jmp 14fcc <_sk_store_565_avx+0xbf>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 14ba4 <_sk_store_565_avx+0xbf>
+ .byte 235,159 // jmp 14fcc <_sk_store_565_avx+0xbf>
.byte 15,31,0 // nopl (%rax)
.byte 196 // (bad)
.byte 255 // (bad)
@@ -20135,31 +20338,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 14cdd <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 15105 <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,169,86,2,0 // vbroadcastss 0x256a9(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,181,94,2,0 // vbroadcastss 0x25eb5(%rip),%ymm0 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,156,86,2,0 // vbroadcastss 0x2569c(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,168,94,2,0 // vbroadcastss 0x25ea8(%rip),%ymm1 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,147,86,2,0 // vbroadcastss 0x25693(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,159,94,2,0 // vbroadcastss 0x25e9f(%rip),%ymm1 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,134,86,2,0 // vbroadcastss 0x25686(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,146,94,2,0 // vbroadcastss 0x25e92(%rip),%ymm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,125,86,2,0 // vbroadcastss 0x2567d(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,137,94,2,0 // vbroadcastss 0x25e89(%rip),%ymm2 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,112,86,2,0 // vbroadcastss 0x25670(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,124,94,2,0 // vbroadcastss 0x25e7c(%rip),%ymm8 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,102,86,2,0 // vbroadcastss 0x25666(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,114,94,2,0 // vbroadcastss 0x25e72(%rip),%ymm8 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,88,86,2,0 // vbroadcastss 0x25658(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,100,94,2,0 // vbroadcastss 0x25e64(%rip),%ymm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20168,27 +20371,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 14c49 <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 15071 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14d64 <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1518c <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 15071 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 15071 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 15071 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20224,31 +20427,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 14e39 <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 15261 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,77,85,2,0 // vbroadcastss 0x2554d(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,37,89,93,2,0 // vbroadcastss 0x25d59(%rip),%ymm4 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,64,85,2,0 // vbroadcastss 0x25540(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,76,93,2,0 // vbroadcastss 0x25d4c(%rip),%ymm5 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,55,85,2,0 // vbroadcastss 0x25537(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,45,67,93,2,0 // vbroadcastss 0x25d43(%rip),%ymm5 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,42,85,2,0 // vbroadcastss 0x2552a(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,54,93,2,0 // vbroadcastss 0x25d36(%rip),%ymm6 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,33,85,2,0 // vbroadcastss 0x25521(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,53,45,93,2,0 // vbroadcastss 0x25d2d(%rip),%ymm6 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,20,85,2,0 // vbroadcastss 0x25514(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,32,93,2,0 // vbroadcastss 0x25d20(%rip),%ymm8 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,10,85,2,0 // vbroadcastss 0x2550a(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,22,93,2,0 // vbroadcastss 0x25d16(%rip),%ymm8 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,252,84,2,0 // vbroadcastss 0x254fc(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,8,93,2,0 // vbroadcastss 0x25d08(%rip),%ymm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20257,27 +20460,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 14da5 <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 151cd <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14ec0 <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 152e8 <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 151cd <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 151cd <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 151cd <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20370,25 +20573,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,5,83,2,0 // vbroadcastss 0x25305(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,17,91,2,0 // vbroadcastss 0x25b11(%rip),%ymm0 # 3af44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,248,82,2,0 // vbroadcastss 0x252f8(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,4,91,2,0 // vbroadcastss 0x25b04(%rip),%ymm1 # 3af48 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,239,82,2,0 // vbroadcastss 0x252ef(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,251,90,2,0 // vbroadcastss 0x25afb(%rip),%ymm1 # 3af4c <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,226,82,2,0 // vbroadcastss 0x252e2(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,238,90,2,0 // vbroadcastss 0x25aee(%rip),%ymm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,217,82,2,0 // vbroadcastss 0x252d9(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,229,90,2,0 // vbroadcastss 0x25ae5(%rip),%ymm2 # 3af54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,204,82,2,0 // vbroadcastss 0x252cc(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,216,90,2,0 // vbroadcastss 0x25ad8(%rip),%ymm8 # 3af58 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,194,82,2,0 // vbroadcastss 0x252c2(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,206,90,2,0 // vbroadcastss 0x25ace(%rip),%ymm8 # 3af5c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,180,82,2,0 // vbroadcastss 0x252b4(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,192,90,2,0 // vbroadcastss 0x25ac0(%rip),%ymm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20411,9 +20614,9 @@ _sk_store_4444_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10
- .byte 196,98,125,24,13,103,81,2,0 // vbroadcastss 0x25167(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,115,89,2,0 // vbroadcastss 0x25973(%rip),%ymm9 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
- .byte 196,98,125,24,29,113,82,2,0 // vbroadcastss 0x25271(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,125,90,2,0 // vbroadcastss 0x25a7d(%rip),%ymm11 # 3af64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,25,114,242,12 // vpslld $0xc,%xmm10,%xmm12
@@ -20446,7 +20649,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 15173 <_sk_store_4444_avx+0xea>
+ .byte 117,10 // jne 1559b <_sk_store_4444_avx+0xea>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20454,22 +20657,22 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 1516f <_sk_store_4444_avx+0xe6>
+ .byte 119,236 // ja 15597 <_sk_store_4444_avx+0xe6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 151d0 <_sk_store_4444_avx+0x147>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 155f8 <_sk_store_4444_avx+0x147>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 1516f <_sk_store_4444_avx+0xe6>
+ .byte 235,207 // jmp 15597 <_sk_store_4444_avx+0xe6>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 1516f <_sk_store_4444_avx+0xe6>
+ .byte 235,191 // jmp 15597 <_sk_store_4444_avx+0xe6>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 1516f <_sk_store_4444_avx+0xe6>
+ .byte 235,159 // jmp 15597 <_sk_store_4444_avx+0xe6>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20487,7 +20690,7 @@ _sk_store_4444_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe10151e8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb280>
+ .byte 232,255,255,255,224 // callq ffffffffe1015610 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdaa74>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20504,12 +20707,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15293 <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 156bb <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,166,85,2,0 // vmovapd 0x255a6(%rip),%ymm10 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x858>
+ .byte 197,125,40,21,62,94,2,0 // vmovapd 0x25e3e(%rip),%ymm10 # 3b480 <_sk_srcover_bgra_8888_sse2_lowp+0x8e4>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,100,80,2,0 // vbroadcastss 0x25064(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,112,88,2,0 // vbroadcastss 0x25870(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20536,21 +20739,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 15212 <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 1563a <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15348 <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15770 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 1563a <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 1563a <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20564,9 +20767,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 1563a <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 15349 <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 15771 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20599,12 +20802,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1540b <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 15833 <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,78,84,2,0 // vmovapd 0x2544e(%rip),%ymm10 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x878>
+ .byte 197,125,40,21,230,92,2,0 // vmovapd 0x25ce6(%rip),%ymm10 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x904>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,236,78,2,0 // vbroadcastss 0x24eec(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,248,86,2,0 // vbroadcastss 0x256f8(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -20631,21 +20834,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 1538a <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 157b2 <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 154c0 <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 158e8 <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 157b2 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 157b2 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -20659,9 +20862,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 157b2 <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 154c1 <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 158e9 <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20739,10 +20942,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,32,82,2,0 // vmovaps 0x25220(%rip),%ymm10 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x898>
+ .byte 197,124,40,21,184,90,2,0 // vmovaps 0x25ab8(%rip),%ymm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x924>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,158,76,2,0 // vbroadcastss 0x24c9e(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,170,84,2,0 // vbroadcastss 0x254aa(%rip),%ymm9 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -20781,9 +20984,9 @@ _sk_store_8888_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,149,75,2,0 // vbroadcastss 0x24b95(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,161,83,2,0 // vbroadcastss 0x253a1(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,179,75,2,0 // vbroadcastss 0x24bb3(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,191,83,2,0 // vbroadcastss 0x253bf(%rip),%ymm11 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -20814,7 +21017,7 @@ _sk_store_8888_avx:
.byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1573a <_sk_store_8888_avx+0xe0>
+ .byte 117,10 // jne 15b62 <_sk_store_8888_avx+0xe0>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20822,17 +21025,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 15736 <_sk_store_8888_avx+0xdc>
+ .byte 119,236 // ja 15b5e <_sk_store_8888_avx+0xdc>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 157a8 <_sk_store_8888_avx+0x14e>
+ .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 15bd0 <_sk_store_8888_avx+0x14e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 15736 <_sk_store_8888_avx+0xdc>
+ .byte 235,208 // jmp 15b5e <_sk_store_8888_avx+0xdc>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 15736 <_sk_store_8888_avx+0xdc>
+ .byte 235,192 // jmp 15b5e <_sk_store_8888_avx+0xdc>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20840,7 +21043,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 15736 <_sk_store_8888_avx+0xdc>
+ .byte 235,143 // jmp 15b5e <_sk_store_8888_avx+0xdc>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -20875,12 +21078,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1586b <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 15c93 <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,46,80,2,0 // vmovapd 0x2502e(%rip),%ymm10 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x8b8>
+ .byte 197,125,40,21,198,88,2,0 // vmovapd 0x258c6(%rip),%ymm10 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x944>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,140,74,2,0 // vbroadcastss 0x24a8c(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,152,82,2,0 // vbroadcastss 0x25298(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20907,21 +21110,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 157ea <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 15c12 <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15920 <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15d48 <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 15c12 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 15c12 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20935,9 +21138,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 15c12 <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 15921 <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 15d49 <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20970,12 +21173,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 159e3 <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 15e0b <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,214,78,2,0 // vmovapd 0x24ed6(%rip),%ymm10 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x8d8>
+ .byte 197,125,40,21,110,87,2,0 // vmovapd 0x2576e(%rip),%ymm10 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x964>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,20,73,2,0 // vbroadcastss 0x24914(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,32,81,2,0 // vbroadcastss 0x25120(%rip),%ymm8 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21002,21 +21205,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 15962 <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 15d8a <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15a98 <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15ec0 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 15d8a <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 15d8a <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -21030,9 +21233,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 15d8a <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 15a99 <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 15ec1 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -21110,10 +21313,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,168,76,2,0 // vmovaps 0x24ca8(%rip),%ymm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x8f8>
+ .byte 197,124,40,13,64,85,2,0 // vmovaps 0x25540(%rip),%ymm9 # 3b520 <_sk_srcover_bgra_8888_sse2_lowp+0x984>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,198,70,2,0 // vbroadcastss 0x246c6(%rip),%ymm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,21,210,78,2,0 // vbroadcastss 0x24ed2(%rip),%ymm10 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -21152,9 +21355,9 @@ _sk_store_bgra_avx:
.byte 76,99,218 // movslq %edx,%r11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,189,69,2,0 // vbroadcastss 0x245bd(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,201,77,2,0 // vbroadcastss 0x24dc9(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,219,69,2,0 // vbroadcastss 0x245db(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,231,77,2,0 // vbroadcastss 0x24de7(%rip),%ymm11 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -21185,7 +21388,7 @@ _sk_store_bgra_avx:
.byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 15d12 <_sk_store_bgra_avx+0xe0>
+ .byte 117,10 // jne 1613a <_sk_store_bgra_avx+0xe0>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21193,17 +21396,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 15d0e <_sk_store_bgra_avx+0xdc>
+ .byte 119,236 // ja 16136 <_sk_store_bgra_avx+0xdc>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 15d80 <_sk_store_bgra_avx+0x14e>
+ .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 161a8 <_sk_store_bgra_avx+0x14e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
+ .byte 235,208 // jmp 16136 <_sk_store_bgra_avx+0xdc>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
+ .byte 235,192 // jmp 16136 <_sk_store_bgra_avx+0xdc>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -21211,7 +21414,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
+ .byte 235,143 // jmp 16136 <_sk_store_bgra_avx+0xdc>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -21251,7 +21454,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 15ff7 <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 1641f <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -21268,14 +21471,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,87,85,2,0 // vmovddup 0x25557(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
+ .byte 197,123,18,21,47,94,2,0 // vmovddup 0x25e2f(%rip),%xmm10 # 3c088 <_sk_srcover_bgra_8888_sse2_lowp+0x14ec>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,97,69,2,0 // vbroadcastss 0x24561(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,29,113,77,2,0 // vbroadcastss 0x24d71(%rip),%xmm11 # 3afd8 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,54,85,2,0 // vmovddup 0x25536(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
+ .byte 197,123,18,37,14,94,2,0 // vmovddup 0x25e0e(%rip),%xmm12 # 3c090 <_sk_srcover_bgra_8888_sse2_lowp+0x14f4>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -21284,7 +21487,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,27,69,2,0 // vbroadcastss 0x2451b(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,29,43,77,2,0 // vbroadcastss 0x24d2b(%rip),%xmm3 # 3afdc <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21363,29 +21566,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 1605d <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 16485 <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 1605d <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 16485 <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 1606a <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 16492 <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 1606a <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 16492 <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 15df3 <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 1621b <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 15df3 <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 1621b <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 1621b <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 1621b <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 1621b <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -21404,7 +21607,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 162ce <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 166f6 <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -21421,14 +21624,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,128,82,2,0 // vmovddup 0x25280(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
+ .byte 197,123,18,21,88,91,2,0 // vmovddup 0x25b58(%rip),%xmm10 # 3c088 <_sk_srcover_bgra_8888_sse2_lowp+0x14ec>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,138,66,2,0 // vbroadcastss 0x2428a(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,29,154,74,2,0 // vbroadcastss 0x24a9a(%rip),%xmm11 # 3afd8 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,95,82,2,0 // vmovddup 0x2525f(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
+ .byte 197,123,18,37,55,91,2,0 // vmovddup 0x25b37(%rip),%xmm12 # 3c090 <_sk_srcover_bgra_8888_sse2_lowp+0x14f4>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -21437,7 +21640,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,68,66,2,0 // vbroadcastss 0x24244(%rip),%xmm7 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,61,84,74,2,0 // vbroadcastss 0x24a54(%rip),%xmm7 # 3afdc <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -21516,29 +21719,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16334 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 1675c <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16334 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 1675c <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 16341 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 16769 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 16341 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 16769 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 160ca <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 164f2 <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 160ca <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 164f2 <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 164f2 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 164f2 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 164f2 <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -21617,14 +21820,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,230,78,2,0 // vmovddup 0x24ee6(%rip),%xmm11 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
+ .byte 197,123,18,29,190,87,2,0 // vmovddup 0x257be(%rip),%xmm11 # 3c088 <_sk_srcover_bgra_8888_sse2_lowp+0x14ec>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,240,62,2,0 // vbroadcastss 0x23ef0(%rip),%xmm12 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,37,0,71,2,0 // vbroadcastss 0x24700(%rip),%xmm12 # 3afd8 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,197,78,2,0 // vmovddup 0x24ec5(%rip),%xmm13 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
+ .byte 197,123,18,45,157,87,2,0 // vmovddup 0x2579d(%rip),%xmm13 # 3c090 <_sk_srcover_bgra_8888_sse2_lowp+0x14f4>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -21633,7 +21836,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,170,62,2,0 // vbroadcastss 0x23eaa(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,29,186,70,2,0 // vbroadcastss 0x246ba(%rip),%xmm3 # 3afdc <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21723,12 +21926,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,204,60,2,0 // vbroadcastss 0x23ccc(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,216,68,2,0 // vbroadcastss 0x244d8(%rip),%ymm8 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,6,61,2,0 // vbroadcastss 0x23d06(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,21,22,69,2,0 // vbroadcastss 0x24516(%rip),%ymm10 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,246,60,2,0 // vbroadcastss 0x23cf6(%rip),%xmm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x444>
+ .byte 196,98,121,24,13,6,69,2,0 // vbroadcastss 0x24506(%rip),%xmm9 # 3afe4 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -21739,7 +21942,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,185,60,2,0 // vbroadcastss 0x23cb9(%rip),%xmm11 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
+ .byte 196,98,121,24,29,201,68,2,0 // vbroadcastss 0x244c9(%rip),%xmm11 # 3afe8 <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -21822,7 +22025,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 168ce <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 16cf6 <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -21838,22 +22041,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 168a5 <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 16ccd <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 168a5 <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 16ccd <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je 168a5 <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 16ccd <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 168a5 <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 16ccd <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je 168a5 <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 16ccd <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 168a5 <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 16ccd <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp 168a5 <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 16ccd <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -21868,7 +22071,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 16a4f <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 16e77 <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -21890,7 +22093,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,248,56,2,0 // vbroadcastss 0x238f8(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,4,65,2,0 // vbroadcastss 0x24104(%rip),%ymm9 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21927,29 +22130,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16ab5 <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 16edd <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16ab5 <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 16edd <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 16ac2 <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 16eea <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 16ac2 <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 16eea <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 1695e <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 16d86 <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 1695e <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 16d86 <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 16d86 <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 16d86 <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 16d86 <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -21966,7 +22169,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 16bf3 <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 1701b <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -21994,7 +22197,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,39,55,2,0 // vbroadcastss 0x23727(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,51,63,2,0 // vbroadcastss 0x23f33(%rip),%ymm9 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -22016,69 +22219,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,39,54,2,0 // vbroadcastss 0x23627(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,51,62,2,0 // vbroadcastss 0x23e33(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 16c2b <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 17053 <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 16f53 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 16c75 <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 1709d <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 16c8f <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 170b7 <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 16f53 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 16f53 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 16cd0 <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 170f8 <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 16ce1 <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 17109 <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 16f53 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 16f53 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 16d14 <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 1713c <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 16f53 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 16f53 <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -22094,9 +22297,9 @@ _sk_store_u16_be_avx:
.byte 73,99,193 // movslq %r9d,%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,203,52,2,0 // vbroadcastss 0x234cb(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,215,60,2,0 // vbroadcastss 0x23cd7(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,217,53,2,0 // vbroadcastss 0x235d9(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,229,61,2,0 // vbroadcastss 0x23de5(%rip),%ymm11 # 3af68 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
@@ -22140,7 +22343,7 @@ _sk_store_u16_be_avx:
.byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
.byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 16e5a <_sk_store_u16_be_avx+0x13d>
+ .byte 117,31 // jne 17282 <_sk_store_u16_be_avx+0x13d>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -22149,22 +22352,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 16e56 <_sk_store_u16_be_avx+0x139>
+ .byte 116,240 // je 1727e <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 16e56 <_sk_store_u16_be_avx+0x139>
+ .byte 114,227 // jb 1727e <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 16e56 <_sk_store_u16_be_avx+0x139>
+ .byte 116,218 // je 1727e <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 16e56 <_sk_store_u16_be_avx+0x139>
+ .byte 114,205 // jb 1727e <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 16e56 <_sk_store_u16_be_avx+0x139>
+ .byte 116,196 // je 1727e <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 16e56 <_sk_store_u16_be_avx+0x139>
+ .byte 114,183 // jb 1727e <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 16e56 <_sk_store_u16_be_avx+0x139>
+ .byte 235,174 // jmp 1727e <_sk_store_u16_be_avx+0x139>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -22173,7 +22376,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 17019 <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 17441 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -22186,7 +22389,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 17028 <_sk_load_f32_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 17450 <_sk_load_f32_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -22249,7 +22452,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 16ff3 <_sk_load_f32_avx+0x14b>
+ .byte 235,203 // jmp 1741b <_sk_load_f32_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -22275,7 +22478,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 171b9 <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 175e1 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -22288,7 +22491,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 171c8 <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 175f0 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -22351,7 +22554,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 17193 <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 175bb <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -22391,7 +22594,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 17267 <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 1768f <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -22404,22 +22607,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 17263 <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 1768b <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 17263 <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 1768b <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 17263 <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 1768b <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 17263 <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 1768b <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 17263 <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 1768b <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 17263 <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 1768b <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 17263 <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 1768b <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -22462,7 +22665,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,221,46,2,0 // vmulss 0x22edd(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,233,54,2,0 // vmulss 0x236e9(%rip),%xmm9,%xmm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -22489,7 +22692,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,115,46,2,0 // vmulss 0x22e73(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,127,54,2,0 // vmulss 0x2367f(%rip),%xmm9,%xmm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -22509,7 +22712,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,48,46,2,0 // vbroadcastss 0x22e30(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,60,54,2,0 // vbroadcastss 0x2363c(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22522,7 +22725,7 @@ _sk_repeat_x_1_avx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,10,46,2,0 // vbroadcastss 0x22e0a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,22,54,2,0 // vbroadcastss 0x23616(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22531,9 +22734,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,16,46,2,0 // vbroadcastss 0x22e10(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,28,54,2,0 // vbroadcastss 0x2361c(%rip),%ymm8 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,230,45,2,0 // vbroadcastss 0x22de6(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,242,53,2,0 // vbroadcastss 0x235f2(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -22543,7 +22746,7 @@ _sk_mirror_x_1_avx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,182,45,2,0 // vbroadcastss 0x22db6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,194,53,2,0 // vbroadcastss 0x235c2(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22552,12 +22755,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,200,46,2,0 // vbroadcastss 0x22ec8(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,226,125,24,29,212,54,2,0 // vbroadcastss 0x236d4(%rip),%ymm3 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,183,46,2,0 // vbroadcastss 0x22eb7(%rip),%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,195,54,2,0 // vbroadcastss 0x236c3(%rip),%ymm3 # 3af6c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,174,46,2,0 // vbroadcastss 0x22eae(%rip),%ymm1 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,13,186,54,2,0 // vbroadcastss 0x236ba(%rip),%ymm1 # 3af74 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22805,9 +23008,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 17836 <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 17c5e <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 1784b <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 17c73 <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -22975,12 +23178,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 17be5 <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 1800d <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,111,38,2,0 // vbroadcastss 0x2266f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,123,46,2,0 // vbroadcastss 0x22e7b(%rip),%ymm10 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -22992,7 +23195,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 17bb1 <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 17fd9 <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -23174,27 +23377,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,137,35,2,0 // vbroadcastss 0x22389(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,45,149,43,2,0 // vbroadcastss 0x22b95(%rip),%ymm13 # 3af78 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,127,35,2,0 // vbroadcastss 0x2237f(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,53,139,43,2,0 // vbroadcastss 0x22b8b(%rip),%ymm14 # 3af7c <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,112,35,2,0 // vbroadcastss 0x22370(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,124,43,2,0 // vbroadcastss 0x22b7c(%rip),%ymm14 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,97,35,2,0 // vbroadcastss 0x22361(%rip),%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,109,43,2,0 // vbroadcastss 0x22b6d(%rip),%ymm13 # 3af84 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,76,35,2,0 // vbroadcastss 0x2234c(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,88,43,2,0 // vbroadcastss 0x22b58(%rip),%ymm10 # 3af88 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,242,33,2,0 // vbroadcastss 0x221f2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,254,41,2,0 // vbroadcastss 0x229fe(%rip),%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,220,33,2,0 // vbroadcastss 0x221dc(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,232,41,2,0 // vbroadcastss 0x229e8(%rip),%ymm10 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -23224,7 +23427,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,194,34,2,0 // vbroadcastss 0x222c2(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,206,42,2,0 // vbroadcastss 0x22ace(%rip),%ymm11 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -23233,7 +23436,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,150,34,2,0 // vbroadcastss 0x22296(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,162,42,2,0 // vbroadcastss 0x22aa2(%rip),%ymm9 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
@@ -23241,7 +23444,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,35,33,2,0 // vbroadcastss 0x22123(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,47,41,2,0 // vbroadcastss 0x2292f(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23258,7 +23461,7 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,47,34,2,0 // vbroadcastss 0x2222f(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,59,42,2,0 // vbroadcastss 0x22a3b(%rip),%ymm11 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -23267,17 +23470,17 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,3,34,2,0 // vbroadcastss 0x22203(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,15,42,2,0 // vbroadcastss 0x22a0f(%rip),%ymm9 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,225,33,2,0 // vbroadcastss 0x221e1(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,237,41,2,0 // vbroadcastss 0x229ed(%rip),%ymm9 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,131,32,2,0 // vbroadcastss 0x22083(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,143,40,2,0 // vbroadcastss 0x2288f(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23293,7 +23496,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,149,33,2,0 // vbroadcastss 0x22195(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,161,41,2,0 // vbroadcastss 0x229a1(%rip),%ymm10 # 3af8c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -23302,7 +23505,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,109,33,2,0 // vbroadcastss 0x2216d(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,121,41,2,0 // vbroadcastss 0x22979(%rip),%ymm8 # 3af94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23346,7 +23549,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,167,31,2,0 // vbroadcastss 0x21fa7(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,179,39,2,0 // vbroadcastss 0x227b3(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -23383,9 +23586,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,121,32,2,0 // vbroadcastss 0x22079(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,133,40,2,0 // vbroadcastss 0x22885(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,32,31,2,0 // vbroadcastss 0x21f20(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,44,39,2,0 // vbroadcastss 0x2272c(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23396,7 +23599,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,253,30,2,0 // vbroadcastss 0x21efd(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,9,39,2,0 // vbroadcastss 0x22709(%rip),%ymm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23408,9 +23611,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,42,32,2,0 // vbroadcastss 0x2202a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,54,40,2,0 // vbroadcastss 0x22836(%rip),%ymm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,220,38,2,0 // vbroadcastss 0x226dc(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23421,7 +23624,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,173,30,2,0 // vbroadcastss 0x21ead(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,185,38,2,0 // vbroadcastss 0x226b9(%rip),%ymm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23433,14 +23636,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,221,31,2,0 // vbroadcastss 0x21fdd(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,233,39,2,0 // vbroadcastss 0x227e9(%rip),%ymm0 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,128,30,2,0 // vbroadcastss 0x21e80(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,140,38,2,0 // vbroadcastss 0x2268c(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,190,31,2,0 // vbroadcastss 0x21fbe(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,202,39,2,0 // vbroadcastss 0x227ca(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,220,38,2,0 // vbroadcastss 0x226dc(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23452,19 +23655,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,135,31,2,0 // vbroadcastss 0x21f87(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,147,39,2,0 // vbroadcastss 0x22793(%rip),%ymm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,46,30,2,0 // vbroadcastss 0x21e2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,58,38,2,0 // vbroadcastss 0x2263a(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,117,31,2,0 // vbroadcastss 0x21f75(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,129,39,2,0 // vbroadcastss 0x22781(%rip),%ymm9 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,107,31,2,0 // vbroadcastss 0x21f6b(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,119,39,2,0 // vbroadcastss 0x22777(%rip),%ymm10 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,248,29,2,0 // vbroadcastss 0x21df8(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,4,38,2,0 // vbroadcastss 0x22604(%rip),%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,73,31,2,0 // vbroadcastss 0x21f49(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,85,39,2,0 // vbroadcastss 0x22755(%rip),%ymm9 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23475,17 +23678,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,201,29,2,0 // vbroadcastss 0x21dc9(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,213,37,2,0 // vbroadcastss 0x225d5(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,16,31,2,0 // vbroadcastss 0x21f10(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,28,39,2,0 // vbroadcastss 0x2271c(%rip),%ymm10 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,6,31,2,0 // vbroadcastss 0x21f06(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,18,39,2,0 // vbroadcastss 0x22712(%rip),%ymm11 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,237,30,2,0 // vbroadcastss 0x21eed(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,249,38,2,0 // vbroadcastss 0x226f9(%rip),%ymm9 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23496,13 +23699,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,205,30,2,0 // vbroadcastss 0x21ecd(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,217,38,2,0 // vbroadcastss 0x226d9(%rip),%ymm0 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,171,30,2,0 // vbroadcastss 0x21eab(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,183,38,2,0 // vbroadcastss 0x226b7(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,189,29,2,0 // vbroadcastss 0x21dbd(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,201,37,2,0 // vbroadcastss 0x225c9(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23514,14 +23717,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,120,30,2,0 // vbroadcastss 0x21e78(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,132,38,2,0 // vbroadcastss 0x22684(%rip),%ymm1 # 3af9c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,26,29,2,0 // vbroadcastss 0x21d1a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,38,37,2,0 // vbroadcastss 0x22526(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,88,30,2,0 // vbroadcastss 0x21e58(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,100,38,2,0 // vbroadcastss 0x22664(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,106,29,2,0 // vbroadcastss 0x21d6a(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,118,37,2,0 // vbroadcastss 0x22576(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23533,19 +23736,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,33,30,2,0 // vbroadcastss 0x21e21(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,45,38,2,0 // vbroadcastss 0x2262d(%rip),%ymm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,199,28,2,0 // vbroadcastss 0x21cc7(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,211,36,2,0 // vbroadcastss 0x224d3(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,14,30,2,0 // vbroadcastss 0x21e0e(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,26,38,2,0 // vbroadcastss 0x2261a(%rip),%ymm9 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,4,30,2,0 // vbroadcastss 0x21e04(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,16,38,2,0 // vbroadcastss 0x22610(%rip),%ymm10 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,145,28,2,0 // vbroadcastss 0x21c91(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,157,36,2,0 // vbroadcastss 0x2249d(%rip),%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,226,29,2,0 // vbroadcastss 0x21de2(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,238,37,2,0 // vbroadcastss 0x225ee(%rip),%ymm9 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23556,17 +23759,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,98,28,2,0 // vbroadcastss 0x21c62(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,110,36,2,0 // vbroadcastss 0x2246e(%rip),%ymm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,168,29,2,0 // vbroadcastss 0x21da8(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,180,37,2,0 // vbroadcastss 0x225b4(%rip),%ymm10 # 3afa4 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,158,29,2,0 // vbroadcastss 0x21d9e(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,170,37,2,0 // vbroadcastss 0x225aa(%rip),%ymm11 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,133,29,2,0 // vbroadcastss 0x21d85(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,145,37,2,0 // vbroadcastss 0x22591(%rip),%ymm9 # 3afac <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23577,13 +23780,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,101,29,2,0 // vbroadcastss 0x21d65(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,113,37,2,0 // vbroadcastss 0x22571(%rip),%ymm1 # 3afa8 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,66,29,2,0 // vbroadcastss 0x21d42(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,78,37,2,0 // vbroadcastss 0x2254e(%rip),%ymm10 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,84,28,2,0 // vbroadcastss 0x21c54(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,96,36,2,0 // vbroadcastss 0x22460(%rip),%ymm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23731,7 +23934,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,218,26,2,0 // vbroadcastss 0x21ada(%rip),%xmm4 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,226,121,24,37,230,34,2,0 // vbroadcastss 0x222e6(%rip),%xmm4 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -23785,7 +23988,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,83,24,2,0 // vbroadcastss 0x21853(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,95,32,2,0 // vbroadcastss 0x2205f(%rip),%xmm10 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -23813,7 +24016,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,23,25,2,0 // vbroadcastss 0x21917(%rip),%ymm7 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,61,35,33,2,0 // vbroadcastss 0x22123(%rip),%ymm7 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -24556,7 +24759,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,219,9,2,0 // vbroadcastss 0x209db(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,121,24,13,231,17,2,0 // vbroadcastss 0x211e7(%rip),%xmm9 # 3afb4 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -24613,7 +24816,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,68,7,2,0 // vbroadcastss 0x20744(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,80,15,2,0 // vbroadcastss 0x20f50(%rip),%xmm10 # 3ae58 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -24641,7 +24844,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,8,8,2,0 // vbroadcastss 0x20808(%rip),%ymm12 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,37,20,16,2,0 // vbroadcastss 0x21014(%rip),%ymm12 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -26039,7 +26242,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,101,233,1,0 // vbroadcastss 0x1e965(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,113,241,1,0 // vbroadcastss 0x1f171(%rip),%ymm3 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -26055,18 +26258,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,148,234,1,0 // vbroadcastss 0x1ea94(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,160,242,1,0 // vbroadcastss 0x1f2a0(%rip),%ymm0 # 3afb8 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,139,234,1,0 // vbroadcastss 0x1ea8b(%rip),%ymm1 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,151,242,1,0 // vbroadcastss 0x1f297(%rip),%ymm1 # 3afbc <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,126,234,1,0 // vbroadcastss 0x1ea7e(%rip),%ymm1 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,13,138,242,1,0 // vbroadcastss 0x1f28a(%rip),%ymm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,113,234,1,0 // vbroadcastss 0x1ea71(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,125,242,1,0 // vbroadcastss 0x1f27d(%rip),%ymm1 # 3afc4 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,100,234,1,0 // vbroadcastss 0x1ea64(%rip),%ymm1 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,13,112,242,1,0 // vbroadcastss 0x1f270(%rip),%ymm1 # 3afc8 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -26074,6 +26277,169 @@ _sk_gauss_a_to_rgba_avx:
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_bilerp_clamp_8888_avx
+.globl _sk_bilerp_clamp_8888_avx
+FUNCTION(_sk_bilerp_clamp_8888_avx)
+_sk_bilerp_clamp_8888_avx:
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,129,236,120,1,0,0 // sub $0x178,%rsp
+ .byte 197,254,127,124,36,32 // vmovdqu %ymm7,0x20(%rsp)
+ .byte 197,252,17,52,36 // vmovups %ymm6,(%rsp)
+ .byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp)
+ .byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,172,240,1,0 // vbroadcastss 0x1f0ac(%rip),%ymm3 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,252,17,132,36,64,1,0,0 // vmovups %ymm0,0x140(%rsp)
+ .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0
+ .byte 196,227,125,8,208,1 // vroundps $0x1,%ymm0,%ymm2
+ .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
+ .byte 197,252,17,140,36,192,0,0,0 // vmovups %ymm1,0xc0(%rsp)
+ .byte 197,244,88,203 // vaddps %ymm3,%ymm1,%ymm1
+ .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
+ .byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
+ .byte 196,226,125,24,13,121,240,1,0 // vbroadcastss 0x1f079(%rip),%ymm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,252,17,132,36,32,1,0,0 // vmovups %ymm0,0x120(%rsp)
+ .byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
+ .byte 197,252,17,132,36,224,0,0,0 // vmovups %ymm0,0xe0(%rsp)
+ .byte 197,252,17,148,36,160,0,0,0 // vmovups %ymm2,0xa0(%rsp)
+ .byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
+ .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
+ .byte 196,226,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm1
+ .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2
+ .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
+ .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
+ .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
+ .byte 196,227,117,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm0
+ .byte 197,252,17,132,36,0,1,0,0 // vmovups %ymm0,0x100(%rsp)
+ .byte 196,226,125,24,72,16 // vbroadcastss 0x10(%rax),%ymm1
+ .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2
+ .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
+ .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
+ .byte 196,227,117,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm0
+ .byte 197,252,17,132,36,128,0,0,0 // vmovups %ymm0,0x80(%rsp)
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 196,226,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm0
+ .byte 197,252,17,68,36,96 // vmovups %ymm0,0x60(%rsp)
+ .byte 197,250,16,5,59,241,1,0 // vmovss 0x1f13b(%rip),%xmm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 197,124,40,53,219,246,1,0 // vmovaps 0x1f6db(%rip),%ymm14 # 3b540 <_sk_srcover_bgra_8888_sse2_lowp+0x9a4>
+ .byte 196,98,125,24,45,86,240,1,0 // vbroadcastss 0x1f056(%rip),%ymm13 # 3aec4 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,248,40,224 // vmovaps %xmm0,%xmm4
+ .byte 196,227,121,4,204,0 // vpermilps $0x0,%xmm4,%xmm1
+ .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 197,244,88,140,36,192,0,0,0 // vaddps 0xc0(%rsp),%ymm1,%ymm1
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,252,95,201 // vmaxps %ymm1,%ymm0,%ymm1
+ .byte 197,248,41,100,36,144 // vmovaps %xmm4,-0x70(%rsp)
+ .byte 197,248,46,37,37,241,1,0 // vucomiss 0x1f125(%rip),%xmm4 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 197,252,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm0
+ .byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp)
+ .byte 119,12 // ja 1becc <_sk_bilerp_clamp_8888_avx+0x160>
+ .byte 197,252,16,68,36,64 // vmovups 0x40(%rsp),%ymm0
+ .byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp)
+ .byte 197,244,93,140,36,128,0,0,0 // vminps 0x80(%rsp),%ymm1,%ymm1
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 196,227,125,25,205,1 // vextractf128 $0x1,%ymm1,%xmm5
+ .byte 197,254,111,68,36,96 // vmovdqu 0x60(%rsp),%ymm0
+ .byte 196,227,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm6
+ .byte 196,226,73,64,237 // vpmulld %xmm5,%xmm6,%xmm5
+ .byte 196,226,121,64,201 // vpmulld %xmm1,%xmm0,%xmm1
+ .byte 196,99,117,24,253,1 // vinsertf128 $0x1,%xmm5,%ymm1,%ymm15
+ .byte 197,122,16,37,149,240,1,0 // vmovss 0x1f095(%rip),%xmm12 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,195,121,4,204,0 // vpermilps $0x0,%xmm12,%xmm1
+ .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
+ .byte 197,244,88,140,36,64,1,0,0 // vaddps 0x140(%rsp),%ymm1,%ymm1
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,252,95,201 // vmaxps %ymm1,%ymm0,%ymm1
+ .byte 197,244,93,140,36,0,1,0,0 // vminps 0x100(%rsp),%ymm1,%ymm1
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 196,227,125,25,205,1 // vextractf128 $0x1,%ymm1,%xmm5
+ .byte 196,99,125,25,254,1 // vextractf128 $0x1,%ymm15,%xmm6
+ .byte 197,201,254,237 // vpaddd %xmm5,%xmm6,%xmm5
+ .byte 196,227,249,22,232,1 // vpextrq $0x1,%xmm5,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 196,193,249,126,234 // vmovq %xmm5,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 197,129,254,201 // vpaddd %xmm1,%xmm15,%xmm1
+ .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
+ .byte 65,137,222 // mov %ebx,%r14d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,193,249,126,207 // vmovq %xmm1,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,32 // shr $0x20,%r15
+ .byte 196,129,121,110,12,160 // vmovd (%r8,%r12,4),%xmm1
+ .byte 196,131,113,34,12,184,1 // vpinsrd $0x1,(%r8,%r15,4),%xmm1,%xmm1
+ .byte 196,131,113,34,12,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm1,%xmm1
+ .byte 196,195,113,34,12,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm1,%xmm1
+ .byte 196,129,121,110,44,152 // vmovd (%r8,%r11,4),%xmm5
+ .byte 196,131,81,34,44,144,1 // vpinsrd $0x1,(%r8,%r10,4),%xmm5,%xmm5
+ .byte 196,131,81,34,44,136,2 // vpinsrd $0x2,(%r8,%r9,4),%xmm5,%xmm5
+ .byte 196,195,81,34,4,128,3 // vpinsrd $0x3,(%r8,%rax,4),%xmm5,%xmm0
+ .byte 196,227,117,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm5
+ .byte 196,193,84,84,238 // vandps %ymm14,%ymm5,%ymm5
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 196,193,84,89,245 // vmulps %ymm13,%ymm5,%ymm6
+ .byte 197,209,114,209,8 // vpsrld $0x8,%xmm1,%xmm5
+ .byte 197,217,114,208,8 // vpsrld $0x8,%xmm0,%xmm4
+ .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
+ .byte 196,193,92,84,230 // vandps %ymm14,%ymm4,%ymm4
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,193,92,89,237 // vmulps %ymm13,%ymm4,%ymm5
+ .byte 197,217,114,209,16 // vpsrld $0x10,%xmm1,%xmm4
+ .byte 197,193,114,208,16 // vpsrld $0x10,%xmm0,%xmm7
+ .byte 196,227,93,24,231,1 // vinsertf128 $0x1,%xmm7,%ymm4,%ymm4
+ .byte 196,193,92,84,230 // vandps %ymm14,%ymm4,%ymm4
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,65,92,89,221 // vmulps %ymm13,%ymm4,%ymm11
+ .byte 197,241,114,209,24 // vpsrld $0x18,%xmm1,%xmm1
+ .byte 197,249,114,208,24 // vpsrld $0x18,%xmm0,%xmm0
+ .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,193,124,89,205 // vmulps %ymm13,%ymm0,%ymm1
+ .byte 197,120,46,37,186,239,1,0 // vucomiss 0x1efba(%rip),%xmm12 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 197,124,16,148,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm10
+ .byte 119,9 // ja 1c02e <_sk_bilerp_clamp_8888_avx+0x2c2>
+ .byte 197,124,16,148,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm10
+ .byte 197,172,89,68,36,160 // vmulps -0x60(%rsp),%ymm10,%ymm0
+ .byte 197,252,89,230 // vmulps %ymm6,%ymm0,%ymm4
+ .byte 197,52,88,204 // vaddps %ymm4,%ymm9,%ymm9
+ .byte 197,252,89,229 // vmulps %ymm5,%ymm0,%ymm4
+ .byte 197,60,88,196 // vaddps %ymm4,%ymm8,%ymm8
+ .byte 196,193,124,89,227 // vmulps %ymm11,%ymm0,%ymm4
+ .byte 197,236,88,212 // vaddps %ymm4,%ymm2,%ymm2
+ .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
+ .byte 197,228,88,216 // vaddps %ymm0,%ymm3,%ymm3
+ .byte 197,26,88,37,239,237,1,0 // vaddss 0x1edef(%rip),%xmm12,%xmm12 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,5,227,237,1,0 // vmovss 0x1ede3(%rip),%xmm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,193,120,46,196 // vucomiss %xmm12,%xmm0
+ .byte 15,131,147,254,255,255 // jae 1bf03 <_sk_bilerp_clamp_8888_avx+0x197>
+ .byte 197,248,40,100,36,144 // vmovaps -0x70(%rsp),%xmm4
+ .byte 197,218,88,37,206,237,1,0 // vaddss 0x1edce(%rip),%xmm4,%xmm4 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,5,194,237,1,0 // vmovss 0x1edc2(%rip),%xmm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,248,46,196 // vucomiss %xmm4,%xmm0
+ .byte 15,131,244,253,255,255 // jae 1be84 <_sk_bilerp_clamp_8888_avx+0x118>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
+ .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
+ .byte 197,252,16,100,36,192 // vmovups -0x40(%rsp),%ymm4
+ .byte 197,252,16,108,36,224 // vmovups -0x20(%rsp),%ymm5
+ .byte 197,252,16,52,36 // vmovups (%rsp),%ymm6
+ .byte 197,252,16,124,36,32 // vmovups 0x20(%rsp),%ymm7
+ .byte 72,129,196,120,1,0,0 // add $0x178,%rsp
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_start_pipeline_sse41
.globl _sk_start_pipeline_sse41
FUNCTION(_sk_start_pipeline_sse41)
@@ -26095,13 +26461,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1b9fa <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1c177 <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1b9c8 <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1c145 <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -26120,10 +26486,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1b991 <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1c10e <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1b9f1 <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1c16e <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -26137,7 +26503,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1b983 <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1c100 <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -26166,9 +26532,9 @@ _sk_seed_shader_sse41:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,15,241,1,0 // addps 0x1f10f(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,13,146,246,1,0 // addps 0x1f692(%rip),%xmm1 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,22,241,1,0 // movaps 0x1f116(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,153,246,1,0 // movaps 0x1f699(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -26183,18 +26549,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,191,240,1,0 // paddd 0x1f0bf(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
+ .byte 102,68,15,254,5,66,246,1,0 // paddd 0x1f642(%rip),%xmm8 # 3b820 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,230,240,1,0 // movdqa 0x1f0e6(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 102,68,15,111,21,105,246,1,0 // movdqa 0x1f669(%rip),%xmm10 # 3b860 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,210,240,1,0 // movdqa 0x1f0d2(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
- .byte 102,68,15,111,45,217,240,1,0 // movdqa 0x1f0d9(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,37,85,246,1,0 // movdqa 0x1f655(%rip),%xmm12 # 3b870 <_sk_srcover_bgra_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,111,45,92,246,1,0 // movdqa 0x1f65c(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -26210,8 +26576,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,148,240,1,0 // mulps 0x1f094(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
- .byte 68,15,88,5,156,240,1,0 // addps 0x1f09c(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
+ .byte 68,15,89,5,23,246,1,0 // mulps 0x1f617(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
+ .byte 68,15,88,5,31,246,1,0 // addps 0x1f61f(%rip),%xmm8 # 3b8a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd04>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -26253,7 +26619,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,210,239,1,0 // movaps 0x1efd2(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,85,245,1,0 // movaps 0x1f555(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -26264,7 +26630,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,190,239,1,0 // movaps 0x1efbe(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,5,65,245,1,0 // movaps 0x1f541(%rip),%xmm0 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -26310,7 +26676,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,110,239,1,0 // movaps 0x1ef6e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,241,244,1,0 // movaps 0x1f4f1(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26335,7 +26701,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,33,239,1,0 // movaps 0x1ef21(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,164,244,1,0 // movaps 0x1f4a4(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -26382,7 +26748,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,181,238,1,0 // movaps 0x1eeb5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,56,244,1,0 // movaps 0x1f438(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -26395,7 +26761,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,149,238,1,0 // movaps 0x1ee95(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,24,244,1,0 // movaps 0x1f418(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -26412,7 +26778,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,104,238,1,0 // movaps 0x1ee68(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,235,243,1,0 // movaps 0x1f3eb(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26432,7 +26798,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,44,238,1,0 // movaps 0x1ee2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,175,243,1,0 // movaps 0x1f3af(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -26460,7 +26826,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,240,237,1,0 // movaps 0x1edf0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,115,243,1,0 // movaps 0x1f373(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -26498,7 +26864,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,113,237,1,0 // movaps 0x1ed71(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,244,242,1,0 // movaps 0x1f2f4(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -26540,7 +26906,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,253,236,1,0 // movaps 0x1ecfd(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,128,242,1,0 // movaps 0x1f280(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -26588,7 +26954,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,88,236,1,0 // movaps 0x1ec58(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,219,241,1,0 // movaps 0x1f1db(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26622,7 +26988,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,237,235,1,0 // movaps 0x1ebed(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,112,241,1,0 // movaps 0x1f170(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26659,7 +27025,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,119,235,1,0 // movaps 0x1eb77(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,250,240,1,0 // movaps 0x1f0fa(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26687,7 +27053,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,39,235,1,0 // movaps 0x1eb27(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,170,240,1,0 // movaps 0x1f0aa(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26699,7 +27065,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,14,235,1,0 // movaps 0x1eb0e(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,29,145,240,1,0 // movaps 0x1f091(%rip),%xmm11 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -26783,7 +27149,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,216,233,1,0 // movaps 0x1e9d8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,91,239,1,0 // movaps 0x1ef5b(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -26865,7 +27231,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,163,232,1,0 // movaps 0x1e8a3(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,38,238,1,0 // movaps 0x1ee26(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -26948,7 +27314,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,120,231,1,0 // movaps 0x1e778(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,251,236,1,0 // movaps 0x1ecfb(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -27033,7 +27399,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,63,230,1,0 // movaps 0x1e63f(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,13,194,235,1,0 // movaps 0x1ebc2(%rip),%xmm1 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -27046,10 +27412,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,109,230,1,0 // movaps 0x1e66d(%rip),%xmm13 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,40,45,240,235,1,0 // movaps 0x1ebf0(%rip),%xmm13 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,109,230,1,0 // movaps 0x1e66d(%rip),%xmm12 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,37,240,235,1,0 // movaps 0x1ebf0(%rip),%xmm12 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -27235,12 +27601,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,216,227,1,0 // movaps 0x1e3d8(%rip),%xmm0 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 15,40,5,91,233,1,0 // movaps 0x1e95b(%rip),%xmm0 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,221,227,1,0 // movaps 0x1e3dd(%rip),%xmm2 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 15,40,21,96,233,1,0 // movaps 0x1e960(%rip),%xmm2 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,222,227,1,0 // movaps 0x1e3de(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,53,97,233,1,0 // movaps 0x1e961(%rip),%xmm14 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -27323,7 +27689,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,242,225,1,0 // movaps 0x1e1f2(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,117,231,1,0 // movaps 0x1e775(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -27417,14 +27783,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,28,225,1,0 // movaps 0x1e11c(%rip),%xmm2 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 15,40,21,159,230,1,0 // movaps 0x1e69f(%rip),%xmm2 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,31,225,1,0 // movaps 0x1e11f(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 15,40,13,162,230,1,0 // movaps 0x1e6a2(%rip),%xmm1 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,30,225,1,0 // movaps 0x1e11e(%rip),%xmm13 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,45,161,230,1,0 // movaps 0x1e6a1(%rip),%xmm13 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -27505,7 +27871,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,52,223,1,0 // movaps 0x1df34(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,183,228,1,0 // movaps 0x1e4b7(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -27560,14 +27926,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,239,222,1,0 // movaps 0x1deef(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,13,114,228,1,0 // movaps 0x1e472(%rip),%xmm9 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,239,222,1,0 // movaps 0x1deef(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,21,114,228,1,0 // movaps 0x1e472(%rip),%xmm10 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,236,222,1,0 // movaps 0x1deec(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,29,111,228,1,0 // movaps 0x1e46f(%rip),%xmm11 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -27652,7 +28018,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,248,220,1,0 // movaps 0x1dcf8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,123,226,1,0 // movaps 0x1e27b(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -27704,13 +28070,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,192,220,1,0 // movaps 0x1dcc0(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,5,67,226,1,0 // movaps 0x1e243(%rip),%xmm8 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,196,220,1,0 // movaps 0x1dcc4(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,21,71,226,1,0 // movaps 0x1e247(%rip),%xmm10 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,194,220,1,0 // movaps 0x1dcc2(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,37,69,226,1,0 // movaps 0x1e245(%rip),%xmm12 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -27795,7 +28161,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,200,218,1,0 // movaps 0x1dac8(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,5,75,224,1,0 // movaps 0x1e04b(%rip),%xmm0 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -27841,24 +28207,24 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1d21a <_sk_srcover_rgba_8888_sse41+0x125>
+ .byte 15,133,0,1,0,0 // jne 1d997 <_sk_srcover_rgba_8888_sse41+0x125>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,213,218,1,0 // movdqa 0x1dad5(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,37,88,224,1,0 // movdqa 0x1e058(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,56,0,45,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,45,84,224,1,0 // pshufb 0x1e054(%rip),%xmm5 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,56,0,53,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,53,84,224,1,0 // pshufb 0x1e054(%rip),%xmm6 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,234,217,1,0 // movaps 0x1d9ea(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,109,223,1,0 // movaps 0x1df6d(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,190,218,1,0 // movaps 0x1dabe(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,37,65,224,1,0 // movaps 0x1e041(%rip),%xmm12 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -27895,7 +28261,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,84 // jne 1d258 <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 117,84 // jne 1d9d5 <_sk_srcover_rgba_8888_sse41+0x163>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -27905,32 +28271,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1d282 <_sk_srcover_rgba_8888_sse41+0x18d>
+ .byte 116,91 // je 1d9ff <_sk_srcover_rgba_8888_sse41+0x18d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1d247 <_sk_srcover_rgba_8888_sse41+0x152>
+ .byte 116,22 // je 1d9c4 <_sk_srcover_rgba_8888_sse41+0x152>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,229,254,255,255 // jne 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 15,133,229,254,255,255 // jne 1d89d <_sk_srcover_rgba_8888_sse41+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,200,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 233,200,254,255,255 // jmpq 1d89d <_sk_srcover_rgba_8888_sse41+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1d28d <_sk_srcover_rgba_8888_sse41+0x198>
+ .byte 116,40 // je 1da0a <_sk_srcover_rgba_8888_sse41+0x198>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1d27a <_sk_srcover_rgba_8888_sse41+0x185>
+ .byte 116,15 // je 1d9f7 <_sk_srcover_rgba_8888_sse41+0x185>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 117,153 // jne 1d987 <_sk_srcover_rgba_8888_sse41+0x115>
.byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,136 // jmp 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 235,136 // jmp 1d987 <_sk_srcover_rgba_8888_sse41+0x115>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,147,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 233,147,254,255,255 // jmpq 1d89d <_sk_srcover_rgba_8888_sse41+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,114,255,255,255 // jmpq 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 233,114,255,255,255 // jmpq 1d987 <_sk_srcover_rgba_8888_sse41+0x115>
HIDDEN _sk_srcover_bgra_8888_sse41
.globl _sk_srcover_bgra_8888_sse41
@@ -27945,24 +28311,24 @@ _sk_srcover_bgra_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1d3bd <_sk_srcover_bgra_8888_sse41+0x125>
+ .byte 15,133,0,1,0,0 // jne 1db3a <_sk_srcover_bgra_8888_sse41+0x125>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,50,217,1,0 // movdqa 0x1d932(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,37,181,222,1,0 // movdqa 0x1deb5(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,37,177,222,1,0 // pshufb 0x1deb1(%rip),%xmm4 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,37,177,222,1,0 // pshufb 0x1deb1(%rip),%xmm4 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,71,216,1,0 // movaps 0x1d847(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,202,221,1,0 // movaps 0x1ddca(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,27,217,1,0 // movaps 0x1d91b(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,37,158,222,1,0 // movaps 0x1de9e(%rip),%xmm12 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -27999,7 +28365,7 @@ _sk_srcover_bgra_8888_sse41:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,84 // jne 1d3fb <_sk_srcover_bgra_8888_sse41+0x163>
+ .byte 117,84 // jne 1db78 <_sk_srcover_bgra_8888_sse41+0x163>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -28009,32 +28375,32 @@ _sk_srcover_bgra_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1d425 <_sk_srcover_bgra_8888_sse41+0x18d>
+ .byte 116,91 // je 1dba2 <_sk_srcover_bgra_8888_sse41+0x18d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1d3ea <_sk_srcover_bgra_8888_sse41+0x152>
+ .byte 116,22 // je 1db67 <_sk_srcover_bgra_8888_sse41+0x152>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,229,254,255,255 // jne 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 15,133,229,254,255,255 // jne 1da40 <_sk_srcover_bgra_8888_sse41+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,200,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 233,200,254,255,255 // jmpq 1da40 <_sk_srcover_bgra_8888_sse41+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1d430 <_sk_srcover_bgra_8888_sse41+0x198>
+ .byte 116,40 // je 1dbad <_sk_srcover_bgra_8888_sse41+0x198>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1d41d <_sk_srcover_bgra_8888_sse41+0x185>
+ .byte 116,15 // je 1db9a <_sk_srcover_bgra_8888_sse41+0x185>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 117,153 // jne 1db2a <_sk_srcover_bgra_8888_sse41+0x115>
.byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,136 // jmp 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 235,136 // jmp 1db2a <_sk_srcover_bgra_8888_sse41+0x115>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,147,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 233,147,254,255,255 // jmpq 1da40 <_sk_srcover_bgra_8888_sse41+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,114,255,255,255 // jmpq 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 233,114,255,255,255 // jmpq 1db2a <_sk_srcover_bgra_8888_sse41+0x115>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -28052,7 +28418,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,245,214,1,0 // movaps 0x1d6f5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,120,220,1,0 // movaps 0x1dc78(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -28064,7 +28430,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,218,214,1,0 // minps 0x1d6da(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,93,29,93,220,1,0 // minps 0x1dc5d(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -28075,7 +28441,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,198,214,1,0 // minps 0x1d6c6(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,93,61,73,220,1,0 // minps 0x1dc49(%rip),%xmm7 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -28110,7 +28476,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,130,214,1,0 // movaps 0x1d682(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,5,220,1,0 // movaps 0x1dc05(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -28171,10 +28537,10 @@ HIDDEN _sk_unpremul_sse41
.globl _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
- .byte 68,15,40,5,16,214,1,0 // movaps 0x1d610(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,147,219,1,0 // movaps 0x1db93(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,239,214,1,0,1 // cmpltps 0x1d6ef(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,194,13,114,220,1,0,1 // cmpltps 0x1dc72(%rip),%xmm9 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -28186,20 +28552,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,227,214,1,0 // movaps 0x1d6e3(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
+ .byte 68,15,40,29,102,220,1,0 // movaps 0x1dc66(%rip),%xmm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,75,214,1,0 // movaps 0x1d64b(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,37,206,219,1,0 // movaps 0x1dbce(%rip),%xmm12 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,45,78,220,1,0 // movaps 0x1dc4e(%rip),%xmm13 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,53,78,220,1,0 // movaps 0x1dc4e(%rip),%xmm14 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,207,214,1,0 // movaps 0x1d6cf(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,61,82,220,1,0 // movaps 0x1dc52(%rip),%xmm15 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -28236,19 +28602,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,26,214,1,0 // movaps 0x1d61a(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
+ .byte 68,15,40,29,157,219,1,0 // movaps 0x1db9d(%rip),%xmm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,131,213,1,0 // movaps 0x1d583(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,37,6,219,1,0 // movaps 0x1db06(%rip),%xmm12 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,7,214,1,0 // movaps 0x1d607(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,45,138,219,1,0 // movaps 0x1db8a(%rip),%xmm13 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,8,214,1,0 // movaps 0x1d608(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,53,139,219,1,0 // movaps 0x1db8b(%rip),%xmm14 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,12,214,1,0 // movaps 0x1d60c(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,61,143,219,1,0 // movaps 0x1db8f(%rip),%xmm15 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -28292,22 +28658,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,128,213,1,0 // movaps 0x1d580(%rip),%xmm11 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
+ .byte 68,15,40,29,3,219,1,0 // movaps 0x1db03(%rip),%xmm11 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,128,213,1,0 // movaps 0x1d580(%rip),%xmm12 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,37,3,219,1,0 // movaps 0x1db03(%rip),%xmm12 # 3b9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe04>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,128,213,1,0 // movaps 0x1d580(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
+ .byte 68,15,40,21,3,219,1,0 // movaps 0x1db03(%rip),%xmm10 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe14>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,128,213,1,0 // movaps 0x1d580(%rip),%xmm13 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
+ .byte 68,15,40,45,3,219,1,0 // movaps 0x1db03(%rip),%xmm13 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe24>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,132,213,1,0 // movaps 0x1d584(%rip),%xmm14 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
+ .byte 68,15,40,53,7,219,1,0 // movaps 0x1db07(%rip),%xmm14 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe34>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,128,213,1,0 // movaps 0x1d580(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
+ .byte 68,15,40,61,3,219,1,0 // movaps 0x1db03(%rip),%xmm15 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe44>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -28362,7 +28728,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,39,211,1,0 // movaps 0x1d327(%rip),%xmm14 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,53,170,216,1,0 // movaps 0x1d8aa(%rip),%xmm14 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -28371,27 +28737,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,158,212,1,0 // andps 0x1d49e(%rip),%xmm15 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
+ .byte 68,15,84,61,33,218,1,0 // andps 0x1da21(%rip),%xmm15 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,145,212,1,0 // movaps 0x1d491(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
+ .byte 68,15,40,45,20,218,1,0 // movaps 0x1da14(%rip),%xmm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,141,212,1,0 // addps 0x1d48d(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
+ .byte 68,15,88,5,16,218,1,0 // addps 0x1da10(%rip),%xmm8 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,133,212,1,0 // mulps 0x1d485(%rip),%xmm8 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 68,15,89,5,8,218,1,0 // mulps 0x1da08(%rip),%xmm8 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,137,210,1,0 // movaps 0x1d289(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,5,12,216,1,0 // movaps 0x1d80c(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -28413,7 +28779,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,63,210,1,0 // movaps 0x1d23f(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,13,194,215,1,0 // movaps 0x1d7c2(%rip),%xmm9 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -28426,19 +28792,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,250,211,1,0 // movaps 0x1d3fa(%rip),%xmm14 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
+ .byte 68,15,40,53,125,217,1,0 // movaps 0x1d97d(%rip),%xmm14 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,243,211,1,0 // movaps 0x1d3f3(%rip),%xmm11 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
+ .byte 68,15,40,29,118,217,1,0 // movaps 0x1d976(%rip),%xmm11 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,140,211,1,0 // movaps 0x1d38c(%rip),%xmm7 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
+ .byte 15,40,61,15,217,1,0 // movaps 0x1d90f(%rip),%xmm7 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,157,211,1,0 // movaps 0x1d39d(%rip),%xmm3 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
+ .byte 15,40,29,32,217,1,0 // movaps 0x1d920(%rip),%xmm3 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -28448,7 +28814,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,124,211,1,0 // movaps 0x1d37c(%rip),%xmm12 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 68,15,40,37,255,216,1,0 // movaps 0x1d8ff(%rip),%xmm12 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -28482,7 +28848,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,20,211,1,0 // addps 0x1d314(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,88,21,151,216,1,0 // addps 0x1d897(%rip),%xmm10 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -28537,11 +28903,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1db23 <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1e2a0 <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,1,209,1,0 // pand 0x1d101(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,68,15,219,5,132,214,1,0 // pand 0x1d684(%rip),%xmm8 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,85,210,1,0 // mulps 0x1d255(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,216,215,1,0 // mulps 0x1d7d8(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -28552,12 +28918,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 1db6b <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1e2e8 <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1db52 <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1e2cf <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1daf6 <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1e273 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -28565,10 +28931,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1daf6 <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1e273 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1daf6 <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1e273 <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -28583,19 +28949,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1dc3d <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1e3ba <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,195,209,1,0 // movdqa 0x1d1c3(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,5,70,215,1,0 // movdqa 0x1d746(%rip),%xmm0 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,194,209,1,0 // mulps 0x1d1c2(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,5,202,209,1,0 // movdqa 0x1d1ca(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 68,15,89,13,69,215,1,0 // mulps 0x1d745(%rip),%xmm9 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,5,77,215,1,0 // movdqa 0x1d74d(%rip),%xmm0 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,201,209,1,0 // mulps 0x1d1c9(%rip),%xmm10 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,68,15,219,29,208,209,1,0 // pand 0x1d1d0(%rip),%xmm11 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 68,15,89,21,76,215,1,0 // mulps 0x1d74c(%rip),%xmm10 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,219,29,83,215,1,0 // pand 0x1d753(%rip),%xmm11 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,212,209,1,0 // mulps 0x1d1d4(%rip),%xmm11 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,29,87,215,1,0 // mulps 0x1d757(%rip),%xmm11 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -28620,22 +28986,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1dc86 <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1e403 <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1dc6f <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1e3ec <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 1dba5 <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1e322 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1e322 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1e322 <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -28670,11 +29036,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1dd2d <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1e4aa <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,11,207,1,0 // pand 0x1cf0b(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,68,15,219,5,142,212,1,0 // pand 0x1d48e(%rip),%xmm8 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,95,208,1,0 // mulps 0x1d05f(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,226,213,1,0 // mulps 0x1d5e2(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -28692,12 +29058,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 1dd78 <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1e4f5 <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1dd5c <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1e4d9 <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1dcec <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1e469 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -28705,10 +29071,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1e469 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1e469 <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -28723,19 +29089,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1de50 <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1e5cd <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,182,207,1,0 // movdqa 0x1cfb6(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,5,57,213,1,0 // movdqa 0x1d539(%rip),%xmm0 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,181,207,1,0 // mulps 0x1cfb5(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,5,189,207,1,0 // movdqa 0x1cfbd(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 68,15,89,13,56,213,1,0 // mulps 0x1d538(%rip),%xmm9 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,5,64,213,1,0 // movdqa 0x1d540(%rip),%xmm0 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,188,207,1,0 // mulps 0x1cfbc(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,68,15,219,21,195,207,1,0 // pand 0x1cfc3(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 68,15,89,29,63,213,1,0 // mulps 0x1d53f(%rip),%xmm11 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,219,21,70,213,1,0 // pand 0x1d546(%rip),%xmm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,199,207,1,0 // mulps 0x1cfc7(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,21,74,213,1,0 // mulps 0x1d54a(%rip),%xmm10 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -28763,22 +29129,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1de99 <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1e616 <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1de82 <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1e5ff <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 1ddb2 <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1e52f <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1e52f <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1e52f <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -28787,11 +29153,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1dfca <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1e747 <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,57,205,1,0 // movdqa 0x1cd39(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,5,188,210,1,0 // movdqa 0x1d2bc(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -28806,7 +29172,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,244,204,1,0 // pshufb 0x1ccf4(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,13,119,210,1,0 // pshufb 0x1d277(%rip),%xmm1 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -28821,7 +29187,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,176,204,1,0 // pshufb 0x1ccb0(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,21,51,210,1,0 // pshufb 0x1d233(%rip),%xmm2 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -28836,7 +29202,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,157,205,1,0 // mulps 0x1cd9d(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,29,32,211,1,0 // mulps 0x1d320(%rip),%xmm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -28844,19 +29210,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1e00b <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1e788 <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1dff9 <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1e776 <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1debc <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1e639 <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1e639 <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1e639 <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -28866,7 +29232,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1e18b <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1e908 <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -28877,7 +29243,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,111,205,1,0 // movdqa 0x1cd6f(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 102,68,15,111,5,242,210,1,0 // movdqa 0x1d2f2(%rip),%xmm8 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -28895,7 +29261,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,30,205,1,0 // pshufb 0x1cd1e(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
+ .byte 102,15,56,0,13,161,210,1,0 // pshufb 0x1d2a1(%rip),%xmm1 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -28931,23 +29297,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,108,204,1,0 // mulps 0x1cc6c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 15,89,29,239,209,1,0 // mulps 0x1d1ef(%rip),%xmm3 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1e1a4 <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1e921 <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1e7b6 <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1e039 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1e7b6 <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1e7b6 <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -28957,7 +29323,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1e326 <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1eaa3 <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -28971,7 +29337,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,181,203,1,0 // movdqa 0x1cbb5(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 102,68,15,111,5,56,209,1,0 // movdqa 0x1d138(%rip),%xmm8 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -28989,7 +29355,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,100,203,1,0 // pshufb 0x1cb64(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
+ .byte 102,15,56,0,13,231,208,1,0 // pshufb 0x1d0e7(%rip),%xmm1 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29020,7 +29386,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,47,200,1,0 // movaps 0x1c82f(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,178,205,1,0 // movaps 0x1cdb2(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -29028,21 +29394,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1e34c <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1eac9 <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1e97a <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1e37d <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1eafa <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1e97a <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1e97a <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -29055,9 +29421,9 @@ _sk_byte_tables_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,176,199,1,0 // movaps 0x1c7b0(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,51,205,1,0 // movaps 0x1cd33(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,132,200,1,0 // movaps 0x1c884(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,21,7,206,1,0 // movaps 0x1ce07(%rip),%xmm10 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -29080,7 +29446,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,73,201,1,0 // movaps 0x1c949(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,29,204,206,1,0 // movaps 0x1cecc(%rip),%xmm11 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -29171,7 +29537,7 @@ _sk_byte_tables_rgb_sse41:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,200,197,1,0 // movaps 0x1c5c8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,75,203,1,0 // movaps 0x1cb4b(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,218 // minps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
@@ -29195,7 +29561,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,105,199,1,0 // movaps 0x1c769(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,29,236,204,1,0 // movaps 0x1ccec(%rip),%xmm11 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -29260,7 +29626,7 @@ _sk_table_r_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,89,196,1,0 // minps 0x1c459(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,220,201,1,0 // minps 0x1c9dc(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0
.byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
@@ -29291,7 +29657,7 @@ _sk_table_g_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,225,195,1,0 // minps 0x1c3e1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,100,201,1,0 // minps 0x1c964(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,201 // cvtps2dq %xmm9,%xmm1
.byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
@@ -29322,7 +29688,7 @@ _sk_table_b_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,105,195,1,0 // minps 0x1c369(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,236,200,1,0 // minps 0x1c8ec(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
.byte 102,72,15,58,22,208,1 // pextrq $0x1,%xmm2,%rax
@@ -29353,7 +29719,7 @@ _sk_table_a_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,241,194,1,0 // minps 0x1c2f1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,116,200,1,0 // minps 0x1c874(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,217 // cvtps2dq %xmm9,%xmm3
.byte 102,72,15,58,22,216,1 // pextrq $0x1,%xmm3,%rax
@@ -29395,32 +29761,32 @@ _sk_parametric_r_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,234,196,1,0 // mulps 0x1c4ea(%rip),%xmm8 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,242,196,1,0 // movaps 0x1c4f2(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,5,109,202,1,0 // mulps 0x1ca6d(%rip),%xmm8 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,117,202,1,0 // movaps 0x1ca75(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,22,194,1,0 // orps 0x1c216(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,5,238,196,1,0 // addps 0x1c4ee(%rip),%xmm8 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,53,246,196,1,0 // movaps 0x1c4f6(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,153,199,1,0 // orps 0x1c799(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,5,113,202,1,0 // addps 0x1ca71(%rip),%xmm8 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,53,121,202,1,0 // movaps 0x1ca79(%rip),%xmm14 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
- .byte 68,15,88,45,246,196,1,0 // addps 0x1c4f6(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 68,15,40,53,254,196,1,0 // movaps 0x1c4fe(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,121,202,1,0 // addps 0x1ca79(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,53,129,202,1,0 // movaps 0x1ca81(%rip),%xmm14 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
.byte 102,69,15,58,8,224,1 // roundps $0x1,%xmm8,%xmm12
.byte 69,15,40,232 // movaps %xmm8,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,5,235,196,1,0 // addps 0x1c4eb(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,5,110,202,1,0 // addps 0x1ca6e(%rip),%xmm8 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,37,118,202,1,0 // movaps 0x1ca76(%rip),%xmm12 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,37,118,202,1,0 // movaps 0x1ca76(%rip),%xmm12 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,247,196,1,0 // movaps 0x1c4f7(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,45,122,202,1,0 // movaps 0x1ca7a(%rip),%xmm13 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 68,15,89,45,247,196,1,0 // mulps 0x1c4f7(%rip),%xmm13 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,45,122,202,1,0 // mulps 0x1ca7a(%rip),%xmm13 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,69,15,91,197 // cvtps2dq %xmm13,%xmm8
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
@@ -29429,7 +29795,7 @@ _sk_parametric_r_sse41:
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 69,15,95,195 // maxps %xmm11,%xmm8
- .byte 68,15,93,5,120,193,1,0 // minps 0x1c178(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,5,251,198,1,0 // minps 0x1c6fb(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29460,32 +29826,32 @@ _sk_parametric_g_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,181,195,1,0 // mulps 0x1c3b5(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,189,195,1,0 // movaps 0x1c3bd(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,53,56,201,1,0 // mulps 0x1c938(%rip),%xmm14 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,64,201,1,0 // movaps 0x1c940(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,225,192,1,0 // orps 0x1c0e1(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,53,185,195,1,0 // addps 0x1c3b9(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 15,40,13,194,195,1,0 // movaps 0x1c3c2(%rip),%xmm1 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,100,198,1,0 // orps 0x1c664(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,53,60,201,1,0 // addps 0x1c93c(%rip),%xmm14 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,40,13,69,201,1,0 // movaps 0x1c945(%rip),%xmm1 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,88,45,194,195,1,0 // addps 0x1c3c2(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 15,40,13,203,195,1,0 // movaps 0x1c3cb(%rip),%xmm1 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,69,201,1,0 // addps 0x1c945(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 15,40,13,78,201,1,0 // movaps 0x1c94e(%rip),%xmm1 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 65,15,94,205 // divps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,184,195,1,0 // addps 0x1c3b8(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 15,40,13,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,53,59,201,1,0 // addps 0x1c93b(%rip),%xmm14 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,40,13,68,201,1,0 // movaps 0x1c944(%rip),%xmm1 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,40,37,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,37,68,201,1,0 // movaps 0x1c944(%rip),%xmm12 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,13,198,195,1,0 // movaps 0x1c3c6(%rip),%xmm1 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 15,40,13,73,201,1,0 // movaps 0x1c949(%rip),%xmm1 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 65,15,94,204 // divps %xmm12,%xmm1
.byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,89,13,199,195,1,0 // mulps 0x1c3c7(%rip),%xmm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 15,89,13,74,201,1,0 // mulps 0x1c94a(%rip),%xmm1 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,209 // andps %xmm1,%xmm10
@@ -29494,7 +29860,7 @@ _sk_parametric_g_sse41:
.byte 65,15,88,202 // addps %xmm10,%xmm1
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 65,15,95,203 // maxps %xmm11,%xmm1
- .byte 15,93,13,76,192,1,0 // minps 0x1c04c(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,93,13,207,197,1,0 // minps 0x1c5cf(%rip),%xmm1 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29525,32 +29891,32 @@ _sk_parametric_b_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,137,194,1,0 // mulps 0x1c289(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,145,194,1,0 // movaps 0x1c291(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,53,12,200,1,0 // mulps 0x1c80c(%rip),%xmm14 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,20,200,1,0 // movaps 0x1c814(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,181,191,1,0 // orps 0x1bfb5(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,53,141,194,1,0 // addps 0x1c28d(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 15,40,21,150,194,1,0 // movaps 0x1c296(%rip),%xmm2 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,56,197,1,0 // orps 0x1c538(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,53,16,200,1,0 // addps 0x1c810(%rip),%xmm14 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,40,21,25,200,1,0 // movaps 0x1c819(%rip),%xmm2 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,88,45,150,194,1,0 // addps 0x1c296(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 15,40,21,159,194,1,0 // movaps 0x1c29f(%rip),%xmm2 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,25,200,1,0 // addps 0x1c819(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 15,40,21,34,200,1,0 // movaps 0x1c822(%rip),%xmm2 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 65,15,94,213 // divps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,140,194,1,0 // addps 0x1c28c(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 15,40,21,149,194,1,0 // movaps 0x1c295(%rip),%xmm2 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,53,15,200,1,0 // addps 0x1c80f(%rip),%xmm14 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,40,21,24,200,1,0 // movaps 0x1c818(%rip),%xmm2 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,40,37,149,194,1,0 // movaps 0x1c295(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,37,24,200,1,0 // movaps 0x1c818(%rip),%xmm12 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,21,154,194,1,0 // movaps 0x1c29a(%rip),%xmm2 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 15,40,21,29,200,1,0 // movaps 0x1c81d(%rip),%xmm2 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 65,15,94,212 // divps %xmm12,%xmm2
.byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,89,21,155,194,1,0 // mulps 0x1c29b(%rip),%xmm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 15,89,21,30,200,1,0 // mulps 0x1c81e(%rip),%xmm2 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,210 // andps %xmm2,%xmm10
@@ -29559,7 +29925,7 @@ _sk_parametric_b_sse41:
.byte 65,15,88,210 // addps %xmm10,%xmm2
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 65,15,95,211 // maxps %xmm11,%xmm2
- .byte 15,93,21,32,191,1,0 // minps 0x1bf20(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,93,21,163,196,1,0 // minps 0x1c4a3(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29590,32 +29956,32 @@ _sk_parametric_a_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,93,193,1,0 // mulps 0x1c15d(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,101,193,1,0 // movaps 0x1c165(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,53,224,198,1,0 // mulps 0x1c6e0(%rip),%xmm14 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,232,198,1,0 // movaps 0x1c6e8(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,137,190,1,0 // orps 0x1be89(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,53,97,193,1,0 // addps 0x1c161(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 15,40,29,106,193,1,0 // movaps 0x1c16a(%rip),%xmm3 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,12,196,1,0 // orps 0x1c40c(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,53,228,198,1,0 // addps 0x1c6e4(%rip),%xmm14 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,40,29,237,198,1,0 // movaps 0x1c6ed(%rip),%xmm3 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,88,45,106,193,1,0 // addps 0x1c16a(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 15,40,29,115,193,1,0 // movaps 0x1c173(%rip),%xmm3 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,237,198,1,0 // addps 0x1c6ed(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 15,40,29,246,198,1,0 // movaps 0x1c6f6(%rip),%xmm3 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 65,15,94,221 // divps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,96,193,1,0 // addps 0x1c160(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 15,40,29,105,193,1,0 // movaps 0x1c169(%rip),%xmm3 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,53,227,198,1,0 // addps 0x1c6e3(%rip),%xmm14 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,40,29,236,198,1,0 // movaps 0x1c6ec(%rip),%xmm3 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,40,37,105,193,1,0 // movaps 0x1c169(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,37,236,198,1,0 // movaps 0x1c6ec(%rip),%xmm12 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,29,110,193,1,0 // movaps 0x1c16e(%rip),%xmm3 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 15,40,29,241,198,1,0 // movaps 0x1c6f1(%rip),%xmm3 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 65,15,94,220 // divps %xmm12,%xmm3
.byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 15,89,29,111,193,1,0 // mulps 0x1c16f(%rip),%xmm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 15,89,29,242,198,1,0 // mulps 0x1c6f2(%rip),%xmm3 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,211 // andps %xmm3,%xmm10
@@ -29624,7 +29990,7 @@ _sk_parametric_a_sse41:
.byte 65,15,88,218 // addps %xmm10,%xmm3
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 65,15,95,219 // maxps %xmm11,%xmm3
- .byte 15,93,29,244,189,1,0 // minps 0x1bdf4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,93,29,119,195,1,0 // minps 0x1c377(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29642,21 +30008,21 @@ _sk_gamma_sse41:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,110,192,1,0 // movaps 0x1c06e(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,40,5,241,197,1,0 // movaps 0x1c5f1(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,112,192,1,0 // movaps 0x1c070(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,40,5,243,197,1,0 // movaps 0x1c5f3(%rip),%xmm8 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,146,189,1,0 // orps 0x1bd92(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 15,88,53,107,192,1,0 // addps 0x1c06b(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,29,115,192,1,0 // movaps 0x1c073(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 15,86,5,21,195,1,0 // orps 0x1c315(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,53,238,197,1,0 // addps 0x1c5ee(%rip),%xmm6 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,29,246,197,1,0 // movaps 0x1c5f6(%rip),%xmm11 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,113,192,1,0 // movaps 0x1c071(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,61,244,197,1,0 // movaps 0x1c5f4(%rip),%xmm15 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,117,192,1,0 // movaps 0x1c075(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,53,248,197,1,0 // movaps 0x1c5f8(%rip),%xmm14 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -29667,19 +30033,19 @@ _sk_gamma_sse41:
.byte 102,15,58,8,198,1 // roundps $0x1,%xmm6,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,91,192,1,0 // addps 0x1c05b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 15,40,29,116,192,1,0 // movaps 0x1c074(%rip),%xmm3 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,88,53,222,197,1,0 // addps 0x1c5de(%rip),%xmm6 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,40,29,247,197,1,0 // movaps 0x1c5f7(%rip),%xmm3 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,82,192,1,0 // movaps 0x1c052(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,13,213,197,1,0 // movaps 0x1c5d5(%rip),%xmm1 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,45,100,192,1,0 // movaps 0x1c064(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,45,231,197,1,0 // movaps 0x1c5e7(%rip),%xmm13 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,97,192,1,0 // movaps 0x1c061(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,13,228,197,1,0 // movaps 0x1c5e4(%rip),%xmm9 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -29689,9 +30055,9 @@ _sk_gamma_sse41:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,217,188,1,0 // movaps 0x1bcd9(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,53,92,194,1,0 // movaps 0x1c25c(%rip),%xmm6 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,175,191,1,0 // addps 0x1bfaf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,50,197,1,0 // addps 0x1c532(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -29703,7 +30069,7 @@ _sk_gamma_sse41:
.byte 102,15,58,8,232,1 // roundps $0x1,%xmm0,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 68,15,40,61,192,191,1,0 // movaps 0x1bfc0(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,61,67,197,1,0 // movaps 0x1c543(%rip),%xmm15 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
@@ -29718,13 +30084,13 @@ _sk_gamma_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,39,191,1,0 // mulps 0x1bf27(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,89,5,170,196,1,0 // mulps 0x1c4aa(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,56,191,1,0 // addps 0x1bf38(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,187,196,1,0 // addps 0x1c4bb(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,72,191,1,0 // addps 0x1bf48(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,88,5,203,196,1,0 // addps 0x1c4cb(%rip),%xmm8 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -29765,21 +30131,21 @@ _sk_gamma_dst_sse41:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,116,190,1,0 // movaps 0x1be74(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,40,5,247,195,1,0 // movaps 0x1c3f7(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,118,190,1,0 // movaps 0x1be76(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,40,5,249,195,1,0 // movaps 0x1c3f9(%rip),%xmm8 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,152,187,1,0 // orps 0x1bb98(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 15,88,29,113,190,1,0 // addps 0x1be71(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,29,121,190,1,0 // movaps 0x1be79(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 15,86,5,27,193,1,0 // orps 0x1c11b(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,29,244,195,1,0 // addps 0x1c3f4(%rip),%xmm3 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,29,252,195,1,0 // movaps 0x1c3fc(%rip),%xmm11 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,119,190,1,0 // movaps 0x1be77(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,61,250,195,1,0 // movaps 0x1c3fa(%rip),%xmm15 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,123,190,1,0 // movaps 0x1be7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,53,254,195,1,0 // movaps 0x1c3fe(%rip),%xmm14 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -29790,19 +30156,19 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,195,1 // roundps $0x1,%xmm3,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,97,190,1,0 // addps 0x1be61(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 15,40,37,122,190,1,0 // movaps 0x1be7a(%rip),%xmm4 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,88,29,228,195,1,0 // addps 0x1c3e4(%rip),%xmm3 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,40,37,253,195,1,0 // movaps 0x1c3fd(%rip),%xmm4 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,88,190,1,0 // movaps 0x1be58(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,13,219,195,1,0 // movaps 0x1c3db(%rip),%xmm1 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,45,106,190,1,0 // movaps 0x1be6a(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,45,237,195,1,0 // movaps 0x1c3ed(%rip),%xmm13 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,103,190,1,0 // movaps 0x1be67(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,13,234,195,1,0 // movaps 0x1c3ea(%rip),%xmm9 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -29812,9 +30178,9 @@ _sk_gamma_dst_sse41:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,223,186,1,0 // movaps 0x1badf(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,29,98,192,1,0 // movaps 0x1c062(%rip),%xmm3 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,181,189,1,0 // addps 0x1bdb5(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,56,195,1,0 // addps 0x1c338(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -29826,7 +30192,7 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,240,1 // roundps $0x1,%xmm0,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 68,15,40,61,198,189,1,0 // movaps 0x1bdc6(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,61,73,195,1,0 // movaps 0x1c349(%rip),%xmm15 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
@@ -29841,13 +30207,13 @@ _sk_gamma_dst_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,45,189,1,0 // mulps 0x1bd2d(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,89,5,176,194,1,0 // mulps 0x1c2b0(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,62,189,1,0 // addps 0x1bd3e(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,193,194,1,0 // addps 0x1c2c1(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,78,189,1,0 // addps 0x1bd4e(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,88,5,209,194,1,0 // addps 0x1c2d1(%rip),%xmm8 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -29880,29 +30246,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,76,189,1,0 // mulps 0x1bd4c(%rip),%xmm8 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- .byte 68,15,40,13,196,186,1,0 // movaps 0x1bac4(%rip),%xmm9 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,89,5,207,194,1,0 // mulps 0x1c2cf(%rip),%xmm8 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
+ .byte 68,15,40,13,71,192,1,0 // movaps 0x1c047(%rip),%xmm9 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,73,189,1,0 // movaps 0x1bd49(%rip),%xmm0 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
+ .byte 15,40,5,204,194,1,0 // movaps 0x1c2cc(%rip),%xmm0 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1024>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,71,189,1,0 // addps 0x1bd47(%rip),%xmm8 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- .byte 68,15,89,5,79,189,1,0 // mulps 0x1bd4f(%rip),%xmm8 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- .byte 15,89,13,88,189,1,0 // mulps 0x1bd58(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
+ .byte 68,15,88,5,202,194,1,0 // addps 0x1c2ca(%rip),%xmm8 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1034>
+ .byte 68,15,89,5,210,194,1,0 // mulps 0x1c2d2(%rip),%xmm8 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1044>
+ .byte 15,89,13,219,194,1,0 // mulps 0x1c2db(%rip),%xmm1 # 3bbf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1054>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,93,189,1,0 // mulps 0x1bd5d(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
+ .byte 15,89,21,224,194,1,0 // mulps 0x1c2e0(%rip),%xmm2 # 3bc00 <_sk_srcover_bgra_8888_sse2_lowp+0x1064>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,81,189,1,0 // movaps 0x1bd51(%rip),%xmm9 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
+ .byte 68,15,40,13,212,194,1,0 // movaps 0x1c2d4(%rip),%xmm9 # 3bc10 <_sk_srcover_bgra_8888_sse2_lowp+0x1074>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,81,189,1,0 // movaps 0x1bd51(%rip),%xmm2 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
+ .byte 15,40,21,212,194,1,0 // movaps 0x1c2d4(%rip),%xmm2 # 3bc20 <_sk_srcover_bgra_8888_sse2_lowp+0x1084>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,86,189,1,0 // movaps 0x1bd56(%rip),%xmm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
+ .byte 68,15,40,37,217,194,1,0 // movaps 0x1c2d9(%rip),%xmm12 # 3bc30 <_sk_srcover_bgra_8888_sse2_lowp+0x1094>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -29921,8 +30287,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,15,189,1,0 // mulps 0x1bd0f(%rip),%xmm1 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- .byte 15,89,21,24,189,1,0 // mulps 0x1bd18(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
+ .byte 15,89,13,146,194,1,0 // mulps 0x1c292(%rip),%xmm1 # 3bc40 <_sk_srcover_bgra_8888_sse2_lowp+0x10a4>
+ .byte 15,89,21,155,194,1,0 // mulps 0x1c29b(%rip),%xmm2 # 3bc50 <_sk_srcover_bgra_8888_sse2_lowp+0x10b4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -29939,11 +30305,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1f282 <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1f9ff <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,150,185,1,0 // pand 0x1b996(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,5,25,191,1,0 // pand 0x1bf19(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,236,186,1,0 // mulps 0x1baec(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,29,111,192,1,0 // mulps 0x1c06f(%rip),%xmm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -29952,12 +30318,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f2c4 <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1fa41 <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f2ae <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1fa2b <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1f262 <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1f9df <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -29965,10 +30331,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 1f262 <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1f9df <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 1f262 <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1f9df <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -29981,11 +30347,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1f30e <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1fa8b <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,10,185,1,0 // pand 0x1b90a(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,37,141,190,1,0 // pand 0x1be8d(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,96,186,1,0 // mulps 0x1ba60(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,61,227,191,1,0 // mulps 0x1bfe3(%rip),%xmm7 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -29994,12 +30360,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f350 <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1facd <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f33a <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1fab7 <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1f2ee <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1fa6b <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30007,10 +30373,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1fa6b <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1fa6b <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -30053,7 +30419,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,88,185,1,0 // mulps 0x1b958(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,29,219,190,1,0 // mulps 0x1bedb(%rip),%xmm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30072,13 +30438,13 @@ _sk_store_a8_sse41:
.byte 76,99,210 // movslq %edx,%r10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,23,183,1,0 // minps 0x1b717(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,89,5,239,183,1,0 // mulps 0x1b7ef(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,93,5,154,188,1,0 // minps 0x1bc9a(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,89,5,114,189,1,0 // mulps 0x1bd72(%rip),%xmm8 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1f463 <_sk_store_a8_sse41+0x4d>
+ .byte 117,13 // jne 1fbe0 <_sk_store_a8_sse41+0x4d>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30087,17 +30453,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1f49f <_sk_store_a8_sse41+0x89>
+ .byte 116,41 // je 1fc1c <_sk_store_a8_sse41+0x89>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1f48b <_sk_store_a8_sse41+0x75>
+ .byte 116,15 // je 1fc08 <_sk_store_a8_sse41+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1f45f <_sk_store_a8_sse41+0x49>
+ .byte 117,221 // jne 1fbdc <_sk_store_a8_sse41+0x49>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,203,186,1,0 // pshufb 0x1bacb(%rip),%xmm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
+ .byte 102,68,15,56,0,5,78,192,1,0 // pshufb 0x1c04e(%rip),%xmm8 # 3bc60 <_sk_srcover_bgra_8888_sse2_lowp+0x10c4>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 1f45f <_sk_store_a8_sse41+0x49>
+ .byte 235,192 // jmp 1fbdc <_sk_store_a8_sse41+0x49>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 1f45f <_sk_store_a8_sse41+0x49>
+ .byte 235,182 // jmp 1fbdc <_sk_store_a8_sse41+0x49>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -30110,25 +30476,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1f4eb <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1fc68 <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,48,183,1,0 // pand 0x1b730(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,5,179,188,1,0 // pand 0x1bcb3(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,134,184,1,0 // mulps 0x1b886(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,5,9,190,1,0 // mulps 0x1be09(%rip),%xmm0 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,109,182,1,0 // movaps 0x1b66d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,240,187,1,0 // movaps 0x1bbf0(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f52d <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1fcaa <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f517 <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1fc94 <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1f4c8 <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1fc45 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -30136,10 +30502,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1fc45 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1fc45 <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -30152,25 +30518,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1f57a <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1fcf7 <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,161,182,1,0 // pand 0x1b6a1(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,37,36,188,1,0 // pand 0x1bc24(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,247,183,1,0 // mulps 0x1b7f7(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,37,122,189,1,0 // mulps 0x1bd7a(%rip),%xmm4 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,222,181,1,0 // movaps 0x1b5de(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,61,97,187,1,0 // movaps 0x1bb61(%rip),%xmm7 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f5bc <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1fd39 <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f5a6 <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1fd23 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1f557 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1fcd4 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30178,10 +30544,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1fcd4 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1fcd4 <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -30224,9 +30590,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,236,182,1,0 // mulps 0x1b6ec(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,5,111,188,1,0 // mulps 0x1bc6f(%rip),%xmm0 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,211,180,1,0 // movaps 0x1b4d3(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,86,186,1,0 // movaps 0x1ba56(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30243,41 +30609,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1f6f0 <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1fe6d <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,193,182,1,0 // movdqa 0x1b6c1(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,5,68,188,1,0 // movdqa 0x1bc44(%rip),%xmm0 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,195,182,1,0 // mulps 0x1b6c3(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,13,203,182,1,0 // movdqa 0x1b6cb(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 15,89,5,70,188,1,0 // mulps 0x1bc46(%rip),%xmm0 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,13,78,188,1,0 // movdqa 0x1bc4e(%rip),%xmm1 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,205,182,1,0 // mulps 0x1b6cd(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,15,219,21,213,182,1,0 // pand 0x1b6d5(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 15,89,13,80,188,1,0 // mulps 0x1bc50(%rip),%xmm1 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,15,219,21,88,188,1,0 // pand 0x1bc58(%rip),%xmm2 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,219,182,1,0 // mulps 0x1b6db(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,21,94,188,1,0 // mulps 0x1bc5e(%rip),%xmm2 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,98,180,1,0 // movaps 0x1b462(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,229,185,1,0 // movaps 0x1b9e5(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f732 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1feaf <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f71c <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1fe99 <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1f6a7 <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1fe24 <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1fe24 <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1fe24 <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -30291,41 +30657,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1f7ab <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1ff28 <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,6,182,1,0 // movdqa 0x1b606(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,37,137,187,1,0 // movdqa 0x1bb89(%rip),%xmm4 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,8,182,1,0 // mulps 0x1b608(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,45,16,182,1,0 // movdqa 0x1b610(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 15,89,37,139,187,1,0 // mulps 0x1bb8b(%rip),%xmm4 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,45,147,187,1,0 // movdqa 0x1bb93(%rip),%xmm5 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,18,182,1,0 // mulps 0x1b612(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,15,219,53,26,182,1,0 // pand 0x1b61a(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 15,89,45,149,187,1,0 // mulps 0x1bb95(%rip),%xmm5 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,15,219,53,157,187,1,0 // pand 0x1bb9d(%rip),%xmm6 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,32,182,1,0 // mulps 0x1b620(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,53,163,187,1,0 // mulps 0x1bba3(%rip),%xmm6 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,167,179,1,0 // movaps 0x1b3a7(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,61,42,185,1,0 // movaps 0x1b92a(%rip),%xmm7 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f7ed <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1ff6a <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f7d7 <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1ff54 <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1f762 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1fedf <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1fedf <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1fedf <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -30367,19 +30733,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,205,180,1,0 // movdqa 0x1b4cd(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,5,80,186,1,0 // movdqa 0x1ba50(%rip),%xmm0 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,207,180,1,0 // mulps 0x1b4cf(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,13,215,180,1,0 // movdqa 0x1b4d7(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 15,89,5,82,186,1,0 // mulps 0x1ba52(%rip),%xmm0 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,13,90,186,1,0 // movdqa 0x1ba5a(%rip),%xmm1 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,217,180,1,0 // mulps 0x1b4d9(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,15,219,21,225,180,1,0 // pand 0x1b4e1(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 15,89,13,92,186,1,0 // mulps 0x1ba5c(%rip),%xmm1 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,15,219,21,100,186,1,0 // pand 0x1ba64(%rip),%xmm2 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,231,180,1,0 // mulps 0x1b4e7(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,21,106,186,1,0 // mulps 0x1ba6a(%rip),%xmm2 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,110,178,1,0 // movaps 0x1b26e(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,241,183,1,0 // movaps 0x1b7f1(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -30396,16 +30762,16 @@ _sk_store_565_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,66,178,1,0 // movaps 0x1b242(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,197,183,1,0 // movaps 0x1b7c5(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,86,182,1,0 // movaps 0x1b656(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
+ .byte 68,15,40,29,217,187,1,0 // movaps 0x1bbd9(%rip),%xmm11 # 3bc70 <_sk_srcover_bgra_8888_sse2_lowp+0x10d4>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
.byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,67,182,1,0 // mulps 0x1b643(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
+ .byte 68,15,89,37,198,187,1,0 // mulps 0x1bbc6(%rip),%xmm12 # 3bc80 <_sk_srcover_bgra_8888_sse2_lowp+0x10e4>
.byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
.byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
.byte 68,15,95,194 // maxps %xmm2,%xmm8
@@ -30416,7 +30782,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1f978 <_sk_store_565_sse41+0x94>
+ .byte 117,10 // jne 200f5 <_sk_store_565_sse41+0x94>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30424,17 +30790,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1f9ae <_sk_store_565_sse41+0xca>
+ .byte 116,35 // je 2012b <_sk_store_565_sse41+0xca>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1f9a0 <_sk_store_565_sse41+0xbc>
+ .byte 116,15 // je 2011d <_sk_store_565_sse41+0xbc>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1f974 <_sk_store_565_sse41+0x90>
+ .byte 117,221 // jne 200f1 <_sk_store_565_sse41+0x90>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1f974 <_sk_store_565_sse41+0x90>
+ .byte 235,198 // jmp 200f1 <_sk_store_565_sse41+0x90>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1f974 <_sk_store_565_sse41+0x90>
+ .byte 235,188 // jmp 200f1 <_sk_store_565_sse41+0x90>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -30448,44 +30814,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1fa32 <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 201af <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,174,181,1,0 // movdqa 0x1b5ae(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 102,15,111,5,49,187,1,0 // movdqa 0x1bb31(%rip),%xmm0 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,176,181,1,0 // mulps 0x1b5b0(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- .byte 102,15,111,13,184,181,1,0 // movdqa 0x1b5b8(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 15,89,5,51,187,1,0 // mulps 0x1bb33(%rip),%xmm0 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
+ .byte 102,15,111,13,59,187,1,0 // movdqa 0x1bb3b(%rip),%xmm1 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,186,181,1,0 // mulps 0x1b5ba(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- .byte 102,15,111,21,194,181,1,0 // movdqa 0x1b5c2(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 15,89,13,61,187,1,0 // mulps 0x1bb3d(%rip),%xmm1 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
+ .byte 102,15,111,21,69,187,1,0 // movdqa 0x1bb45(%rip),%xmm2 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,196,181,1,0 // mulps 0x1b5c4(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- .byte 102,15,219,29,204,181,1,0 // pand 0x1b5cc(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 15,89,21,71,187,1,0 // mulps 0x1bb47(%rip),%xmm2 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
+ .byte 102,15,219,29,79,187,1,0 // pand 0x1bb4f(%rip),%xmm3 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,210,181,1,0 // mulps 0x1b5d2(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,29,85,187,1,0 // mulps 0x1bb55(%rip),%xmm3 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1fa74 <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 201f1 <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1fa5e <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 201db <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1f9da <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 20157 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 20157 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 20157 <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -30499,44 +30865,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1fafc <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 20279 <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,228,180,1,0 // movdqa 0x1b4e4(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 102,15,111,37,103,186,1,0 // movdqa 0x1ba67(%rip),%xmm4 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,230,180,1,0 // mulps 0x1b4e6(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- .byte 102,15,111,45,238,180,1,0 // movdqa 0x1b4ee(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 15,89,37,105,186,1,0 // mulps 0x1ba69(%rip),%xmm4 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
+ .byte 102,15,111,45,113,186,1,0 // movdqa 0x1ba71(%rip),%xmm5 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,240,180,1,0 // mulps 0x1b4f0(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- .byte 102,15,111,53,248,180,1,0 // movdqa 0x1b4f8(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 15,89,45,115,186,1,0 // mulps 0x1ba73(%rip),%xmm5 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
+ .byte 102,15,111,53,123,186,1,0 // movdqa 0x1ba7b(%rip),%xmm6 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,250,180,1,0 // mulps 0x1b4fa(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- .byte 102,15,219,61,2,181,1,0 // pand 0x1b502(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 15,89,53,125,186,1,0 // mulps 0x1ba7d(%rip),%xmm6 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
+ .byte 102,15,219,61,133,186,1,0 // pand 0x1ba85(%rip),%xmm7 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,8,181,1,0 // mulps 0x1b508(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,61,139,186,1,0 // mulps 0x1ba8b(%rip),%xmm7 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1fb3e <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 202bb <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1fb28 <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 202a5 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1faa4 <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 20221 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 20221 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 20221 <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -30578,21 +30944,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,156,179,1,0 // movdqa 0x1b39c(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 102,15,111,5,31,185,1,0 // movdqa 0x1b91f(%rip),%xmm0 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,158,179,1,0 // mulps 0x1b39e(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- .byte 102,15,111,13,166,179,1,0 // movdqa 0x1b3a6(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 15,89,5,33,185,1,0 // mulps 0x1b921(%rip),%xmm0 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
+ .byte 102,15,111,13,41,185,1,0 // movdqa 0x1b929(%rip),%xmm1 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,168,179,1,0 // mulps 0x1b3a8(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- .byte 102,15,111,21,176,179,1,0 // movdqa 0x1b3b0(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 15,89,13,43,185,1,0 // mulps 0x1b92b(%rip),%xmm1 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
+ .byte 102,15,111,21,51,185,1,0 // movdqa 0x1b933(%rip),%xmm2 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,178,179,1,0 // mulps 0x1b3b2(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- .byte 102,15,219,29,186,179,1,0 // pand 0x1b3ba(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 15,89,21,53,185,1,0 // mulps 0x1b935(%rip),%xmm2 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
+ .byte 102,15,219,29,61,185,1,0 // pand 0x1b93d(%rip),%xmm3 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,192,179,1,0 // mulps 0x1b3c0(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,29,67,185,1,0 // mulps 0x1b943(%rip),%xmm3 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30610,9 +30976,9 @@ _sk_store_4444_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,226,174,1,0 // movaps 0x1aee2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,101,180,1,0 // movaps 0x1b465(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,150,179,1,0 // movaps 0x1b396(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 68,15,40,29,25,185,1,0 // movaps 0x1b919(%rip),%xmm11 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
@@ -30637,7 +31003,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1fcf5 <_sk_store_4444_sse41+0xb1>
+ .byte 117,10 // jne 20472 <_sk_store_4444_sse41+0xb1>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30645,17 +31011,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1fd2b <_sk_store_4444_sse41+0xe7>
+ .byte 116,35 // je 204a8 <_sk_store_4444_sse41+0xe7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1fd1d <_sk_store_4444_sse41+0xd9>
+ .byte 116,15 // je 2049a <_sk_store_4444_sse41+0xd9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1fcf1 <_sk_store_4444_sse41+0xad>
+ .byte 117,221 // jne 2046e <_sk_store_4444_sse41+0xad>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1fcf1 <_sk_store_4444_sse41+0xad>
+ .byte 235,198 // jmp 2046e <_sk_store_4444_sse41+0xad>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1fcf1 <_sk_store_4444_sse41+0xad>
+ .byte 235,188 // jmp 2046e <_sk_store_4444_sse41+0xad>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -30669,19 +31035,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1fdaa <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 20527 <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,161,174,1,0 // movdqa 0x1aea1(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,5,36,180,1,0 // movdqa 0x1b424(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,242,175,1,0 // movaps 0x1aff2(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,117,181,1,0 // movaps 0x1b575(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,145,174,1,0 // pshufb 0x1ae91(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,13,20,180,1,0 // pshufb 0x1b414(%rip),%xmm1 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,141,174,1,0 // pshufb 0x1ae8d(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,21,16,180,1,0 // pshufb 0x1b410(%rip),%xmm2 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30692,19 +31058,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1fde4 <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 20561 <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1fdd3 <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 20550 <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1fd57 <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 204d4 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 204d4 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 204d4 <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -30718,19 +31084,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1fe64 <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 205e1 <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,231,173,1,0 // movdqa 0x1ade7(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,37,106,179,1,0 // movdqa 0x1b36a(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,56,175,1,0 // movaps 0x1af38(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,187,180,1,0 // movaps 0x1b4bb(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,215,173,1,0 // pshufb 0x1add7(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,45,90,179,1,0 // pshufb 0x1b35a(%rip),%xmm5 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,211,173,1,0 // pshufb 0x1add3(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,53,86,179,1,0 // pshufb 0x1b356(%rip),%xmm6 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -30741,19 +31107,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1fe9e <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 2061b <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1fe8d <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 2060a <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1fe11 <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 2058e <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 2058e <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 2058e <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -30790,17 +31156,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,192,172,1,0 // movdqa 0x1acc0(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,5,67,178,1,0 // movdqa 0x1b243(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,17,174,1,0 // movaps 0x1ae11(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,148,179,1,0 // movaps 0x1b394(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,176,172,1,0 // pshufb 0x1acb0(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,13,51,178,1,0 // pshufb 0x1b233(%rip),%xmm1 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,172,172,1,0 // pshufb 0x1acac(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,21,47,178,1,0 // pshufb 0x1b22f(%rip),%xmm2 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30823,9 +31189,9 @@ _sk_store_8888_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,154,171,1,0 // movaps 0x1ab9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,29,177,1,0 // movaps 0x1b11d(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,110,172,1,0 // movaps 0x1ac6e(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,29,241,177,1,0 // movaps 0x1b1f1(%rip),%xmm11 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -30849,23 +31215,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 20037 <_sk_store_8888_sse41+0xac>
+ .byte 117,10 // jne 207b4 <_sk_store_8888_sse41+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 20061 <_sk_store_8888_sse41+0xd6>
+ .byte 116,29 // je 207de <_sk_store_8888_sse41+0xd6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 20059 <_sk_store_8888_sse41+0xce>
+ .byte 116,15 // je 207d6 <_sk_store_8888_sse41+0xce>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 20033 <_sk_store_8888_sse41+0xa8>
+ .byte 117,227 // jne 207b0 <_sk_store_8888_sse41+0xa8>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 20033 <_sk_store_8888_sse41+0xa8>
+ .byte 235,210 // jmp 207b0 <_sk_store_8888_sse41+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 20033 <_sk_store_8888_sse41+0xa8>
+ .byte 235,202 // jmp 207b0 <_sk_store_8888_sse41+0xa8>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -30879,19 +31245,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 200de <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 2085b <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,109,171,1,0 // movdqa 0x1ab6d(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,5,240,176,1,0 // movdqa 0x1b0f0(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,190,172,1,0 // movaps 0x1acbe(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,65,178,1,0 // movaps 0x1b241(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,93,171,1,0 // pshufb 0x1ab5d(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,5,224,176,1,0 // pshufb 0x1b0e0(%rip),%xmm0 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,89,171,1,0 // pshufb 0x1ab59(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,5,220,176,1,0 // pshufb 0x1b0dc(%rip),%xmm0 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30902,19 +31268,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 20118 <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 20895 <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 20107 <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 20884 <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 2008b <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 20808 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 20808 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 20808 <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -30928,19 +31294,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 20198 <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 20915 <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,179,170,1,0 // movdqa 0x1aab3(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,37,54,176,1,0 // movdqa 0x1b036(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,4,172,1,0 // movaps 0x1ac04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,135,177,1,0 // movaps 0x1b187(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,163,170,1,0 // pshufb 0x1aaa3(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,37,38,176,1,0 // pshufb 0x1b026(%rip),%xmm4 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,159,170,1,0 // pshufb 0x1aa9f(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,37,34,176,1,0 // pshufb 0x1b022(%rip),%xmm4 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -30951,19 +31317,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 201d2 <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 2094f <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 201c1 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 2093e <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 20145 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 208c2 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 208c2 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 208c2 <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -31000,17 +31366,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,140,169,1,0 // movdqa 0x1a98c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,5,15,175,1,0 // movdqa 0x1af0f(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,221,170,1,0 // movaps 0x1aadd(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,96,176,1,0 // movaps 0x1b060(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,124,169,1,0 // pshufb 0x1a97c(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
+ .byte 102,15,56,0,5,255,174,1,0 // pshufb 0x1aeff(%rip),%xmm0 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,120,169,1,0 // pshufb 0x1a978(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 102,15,56,0,5,251,174,1,0 // pshufb 0x1aefb(%rip),%xmm0 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31033,9 +31399,9 @@ _sk_store_bgra_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,102,168,1,0 // movaps 0x1a866(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,233,173,1,0 // movaps 0x1ade9(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,58,169,1,0 // movaps 0x1a93a(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,29,189,174,1,0 // movaps 0x1aebd(%rip),%xmm11 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -31059,23 +31425,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2036b <_sk_store_bgra_sse41+0xac>
+ .byte 117,10 // jne 20ae8 <_sk_store_bgra_sse41+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 20395 <_sk_store_bgra_sse41+0xd6>
+ .byte 116,29 // je 20b12 <_sk_store_bgra_sse41+0xd6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 2038d <_sk_store_bgra_sse41+0xce>
+ .byte 116,15 // je 20b0a <_sk_store_bgra_sse41+0xce>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 20367 <_sk_store_bgra_sse41+0xa8>
+ .byte 117,227 // jne 20ae4 <_sk_store_bgra_sse41+0xa8>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 20367 <_sk_store_bgra_sse41+0xa8>
+ .byte 235,210 // jmp 20ae4 <_sk_store_bgra_sse41+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 20367 <_sk_store_bgra_sse41+0xa8>
+ .byte 235,202 // jmp 20ae4 <_sk_store_bgra_sse41+0xa8>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -31089,7 +31455,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 20501 <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 20c7e <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -31099,19 +31465,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,42,172,1,0 // movdqa 0x1ac2a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 102,68,15,111,5,173,177,1,0 // movdqa 0x1b1ad(%rip),%xmm8 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,40,172,1,0 // movdqa 0x1ac28(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,21,171,177,1,0 // movdqa 0x1b1ab(%rip),%xmm10 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,43,172,1,0 // movdqa 0x1ac2b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,15,111,29,174,177,1,0 // movdqa 0x1b1ae(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,23,172,1,0 // movdqa 0x1ac17(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,68,15,111,29,154,177,1,0 // movdqa 0x1b19a(%rip),%xmm11 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31154,16 +31520,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2051a <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 20c97 <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 20b47 <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 203ca <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 20b47 <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 20b47 <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -31177,7 +31543,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 2069f <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 20e1c <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -31187,19 +31553,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,140,170,1,0 // movdqa 0x1aa8c(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 102,68,15,111,5,15,176,1,0 // movdqa 0x1b00f(%rip),%xmm8 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,138,170,1,0 // movdqa 0x1aa8a(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,21,13,176,1,0 // movdqa 0x1b00d(%rip),%xmm10 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,141,170,1,0 // movdqa 0x1aa8d(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,15,111,61,16,176,1,0 // movdqa 0x1b010(%rip),%xmm7 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,121,170,1,0 // movdqa 0x1aa79(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,68,15,111,29,252,175,1,0 // movdqa 0x1affc(%rip),%xmm11 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -31242,16 +31608,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 206b8 <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 20e35 <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 20ce5 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 20568 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 20ce5 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 20ce5 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -31297,19 +31663,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,138,168,1,0 // movdqa 0x1a88a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 102,68,15,111,5,13,174,1,0 // movdqa 0x1ae0d(%rip),%xmm8 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,136,168,1,0 // movdqa 0x1a888(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,21,11,174,1,0 // movdqa 0x1ae0b(%rip),%xmm10 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,139,168,1,0 // movdqa 0x1a88b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,15,111,29,14,174,1,0 // movdqa 0x1ae0e(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,119,168,1,0 // movdqa 0x1a877(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,68,15,111,29,250,173,1,0 // movdqa 0x1adfa(%rip),%xmm11 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31362,20 +31728,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,159,167,1,0 // movdqa 0x1a79f(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,13,34,173,1,0 // movdqa 0x1ad22(%rip),%xmm9 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,156,167,1,0 // movdqa 0x1a79c(%rip),%xmm11 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 102,68,15,111,29,31,173,1,0 // movdqa 0x1ad1f(%rip),%xmm11 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,153,167,1,0 // movdqa 0x1a799(%rip),%xmm10 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 102,68,15,111,21,28,173,1,0 // movdqa 0x1ad1c(%rip),%xmm10 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,127,167,1,0 // movdqa 0x1a77f(%rip),%xmm12 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
+ .byte 102,68,15,111,37,2,173,1,0 // movdqa 0x1ad02(%rip),%xmm12 # 3bd90 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -31420,7 +31786,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 20a0f <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 2118c <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -31428,13 +31794,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 20a0b <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 21188 <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 20a0b <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 21188 <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 20a0b <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 21188 <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -31449,7 +31815,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 20b16 <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 21293 <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -31465,7 +31831,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,71,163,1,0 // movaps 0x1a347(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 68,15,40,5,202,168,1,0 // movaps 0x1a8ca(%rip),%xmm8 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31493,16 +31859,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 20b2f <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 212ac <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 211e7 <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 20a6a <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 211e7 <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 211e7 <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -31519,7 +31885,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 20c25 <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 213a2 <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -31539,7 +31905,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,22,162,1,0 // movaps 0x1a216(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 68,15,40,5,153,167,1,0 // movaps 0x1a799(%rip),%xmm8 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31556,27 +31922,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,45,159,1,0 // movaps 0x19f2d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,176,164,1,0 // movaps 0x1a4b0(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 20c4a <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 213c7 <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 2131c <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 20c7b <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 213f8 <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 2131c <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 2131c <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -31593,9 +31959,9 @@ _sk_store_u16_be_sse41:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,154,158,1,0 // movaps 0x19e9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,29,164,1,0 // movaps 0x1a41d(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,222,163,1,0 // movaps 0x1a3de(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
+ .byte 68,15,40,29,97,169,1,0 // movaps 0x1a961(%rip),%xmm11 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -31637,7 +32003,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 20da6 <_sk_store_u16_be_sse41+0x122>
+ .byte 117,21 // jne 21523 <_sk_store_u16_be_sse41+0x122>
.byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2)
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -31645,13 +32011,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 20da2 <_sk_store_u16_be_sse41+0x11e>
+ .byte 116,240 // je 2151f <_sk_store_u16_be_sse41+0x11e>
.byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 20da2 <_sk_store_u16_be_sse41+0x11e>
+ .byte 114,227 // jb 2151f <_sk_store_u16_be_sse41+0x11e>
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 20da2 <_sk_store_u16_be_sse41+0x11e>
+ .byte 235,213 // jmp 2151f <_sk_store_u16_be_sse41+0x11e>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -31667,7 +32033,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 20e38 <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 215b5 <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -31687,17 +32053,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 20e4a <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 215c7 <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 21585 <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 20e5e <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 215db <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 21585 <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 21585 <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -31713,7 +32079,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 20ece <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 2164b <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -31733,17 +32099,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 20ee0 <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 2165d <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 2161b <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 20ef4 <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 21671 <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 2161b <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 2161b <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -31772,7 +32138,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 20f76 <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 216f3 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -31780,12 +32146,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 20f72 <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 216ef <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 20f72 <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 216ef <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 20f72 <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 216ef <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -31831,7 +32197,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,250,145,1,0 // mulss 0x191fa(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,177,150,1,0 // mulss 0x196b1(%rip),%xmm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -31856,7 +32222,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,161,145,1,0 // mulss 0x191a1(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,88,150,1,0 // mulss 0x19658(%rip),%xmm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -31875,7 +32241,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,161,154,1,0 // minps 0x19aa1(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,5,36,160,1,0 // minps 0x1a024(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -31888,7 +32254,7 @@ _sk_repeat_x_1_sse41:
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,126,154,1,0 // minps 0x19a7e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,5,1,160,1,0 // minps 0x1a001(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -31897,9 +32263,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,206,154,1,0 // movaps 0x19ace(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,40,5,81,160,1,0 // movaps 0x1a051(%rip),%xmm8 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,82,154,1,0 // movaps 0x19a52(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,13,213,159,1,0 // movaps 0x19fd5(%rip),%xmm9 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -31910,7 +32276,7 @@ _sk_mirror_x_1_sse41:
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 68,15,84,200 // andps %xmm0,%xmm9
.byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,47,154,1,0 // minps 0x19a2f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,5,178,159,1,0 // minps 0x19fb2(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -31920,10 +32286,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,125,159,1,0 // mulps 0x19f7d(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- .byte 15,89,13,134,159,1,0 // mulps 0x19f86(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
+ .byte 15,89,5,0,165,1,0 // mulps 0x1a500(%rip),%xmm0 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
+ .byte 15,89,13,9,165,1,0 // mulps 0x1a509(%rip),%xmm1 # 3bdc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,140,159,1,0 // mulps 0x19f8c(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
+ .byte 15,89,29,15,165,1,0 // mulps 0x1a50f(%rip),%xmm3 # 3bdd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1234>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -32235,9 +32601,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 215e4 <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 21d61 <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 215f9 <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 21d76 <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -32330,7 +32696,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 217d6 <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 21f53 <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -32341,7 +32707,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 217bc <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 21f39 <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -32472,26 +32838,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,182,150,1,0 // movaps 0x196b6(%rip),%xmm10 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
+ .byte 68,15,40,21,57,156,1,0 // movaps 0x19c39(%rip),%xmm10 # 3bde0 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,186,150,1,0 // addps 0x196ba(%rip),%xmm10 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,88,21,61,156,1,0 // addps 0x19c3d(%rip),%xmm10 # 3bdf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,190,150,1,0 // addps 0x196be(%rip),%xmm10 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,88,21,65,156,1,0 // addps 0x19c41(%rip),%xmm10 # 3be00 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,194,150,1,0 // addps 0x196c2(%rip),%xmm10 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 68,15,88,21,69,156,1,0 // addps 0x19c45(%rip),%xmm10 # 3be10 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,193,150,1,0 // movaps 0x196c1(%rip),%xmm11 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 68,15,40,29,68,156,1,0 // movaps 0x19c44(%rip),%xmm11 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,202,144,1,0 // movaps 0x190ca(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,29,77,150,1,0 // movaps 0x1964d(%rip),%xmm11 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,188,144,1,0 // movaps 0x190bc(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,63,150,1,0 // movaps 0x1963f(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -32526,7 +32892,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,50,150,1,0 // mulps 0x19632(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,89,13,181,155,1,0 // mulps 0x19bb5(%rip),%xmm9 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -32534,7 +32900,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,28,150,1,0 // mulps 0x1961c(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,21,159,155,1,0 // mulps 0x19b9f(%rip),%xmm10 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -32542,7 +32908,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,249,143,1,0 // mulps 0x18ff9(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,89,5,124,149,1,0 // mulps 0x1957c(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32561,7 +32927,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,169,149,1,0 // mulps 0x195a9(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,89,13,44,155,1,0 // mulps 0x19b2c(%rip),%xmm9 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -32569,16 +32935,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,147,149,1,0 // mulps 0x19593(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,21,22,155,1,0 // mulps 0x19b16(%rip),%xmm10 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,147,148,1,0 // xorps 0x19493(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 68,15,87,13,22,154,1,0 // xorps 0x19a16(%rip),%xmm9 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,104,143,1,0 // mulps 0x18f68(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,89,5,235,148,1,0 // mulps 0x194eb(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32593,7 +32959,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,44,149,1,0 // mulps 0x1952c(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,89,13,175,154,1,0 // mulps 0x19aaf(%rip),%xmm9 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -32601,7 +32967,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,56,148,1,0 // xorps 0x19438(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 15,87,5,187,153,1,0 // xorps 0x199bb(%rip),%xmm0 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32649,7 +33015,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,151,142,1,0 // movaps 0x18e97(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,5,26,148,1,0 // movaps 0x1941a(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -32693,8 +33059,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,16,148,1,0 // addps 0x19410(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,8,142,1,0 // movaps 0x18e08(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,147,153,1,0 // addps 0x19993(%rip),%xmm0 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,139,147,1,0 // movaps 0x1938b(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32707,7 +33073,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,212,141,1,0 // addps 0x18dd4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,5,87,147,1,0 // addps 0x19357(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32719,8 +33085,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,195,147,1,0 // addps 0x193c3(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,187,141,1,0 // movaps 0x18dbb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,70,153,1,0 // addps 0x19946(%rip),%xmm1 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,62,147,1,0 // movaps 0x1933e(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32733,7 +33099,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,134,141,1,0 // addps 0x18d86(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,13,9,147,1,0 // addps 0x19309(%rip),%xmm1 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32745,13 +33111,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,134,147,1,0 // addps 0x19386(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,110,141,1,0 // movaps 0x18d6e(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,9,153,1,0 // addps 0x19909(%rip),%xmm0 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,13,241,146,1,0 // movaps 0x192f1(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,122,147,1,0 // mulps 0x1937a(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,13,82,143,1,0 // addps 0x18f52(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,13,253,152,1,0 // mulps 0x198fd(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,13,213,148,1,0 // addps 0x194d5(%rip),%xmm9 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32764,16 +33130,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,46,147,1,0 // addps 0x1932e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,38,141,1,0 // movaps 0x18d26(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,177,152,1,0 // addps 0x198b1(%rip),%xmm0 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,169,146,1,0 // movaps 0x192a9(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,74,147,1,0 // movaps 0x1934a(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,5,205,152,1,0 // movaps 0x198cd(%rip),%xmm8 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,78,147,1,0 // addps 0x1934e(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,5,209,152,1,0 // addps 0x198d1(%rip),%xmm8 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,242,140,1,0 // addps 0x18cf2(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,5,117,146,1,0 // addps 0x19275(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,70,147,1,0 // addps 0x19346(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,201,152,1,0 // addps 0x198c9(%rip),%xmm8 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32783,17 +33149,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,208,140,1,0 // movaps 0x18cd0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,5,83,146,1,0 // movaps 0x19253(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,249,146,1,0 // movaps 0x192f9(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,21,124,152,1,0 // movaps 0x1987c(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,253,146,1,0 // addps 0x192fd(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,21,128,152,1,0 // addps 0x19880(%rip),%xmm10 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,249,146,1,0 // addps 0x192f9(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,124,152,1,0 // addps 0x1987c(%rip),%xmm10 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32805,11 +33171,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,201,146,1,0 // addps 0x192c9(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 15,88,5,76,152,1,0 // addps 0x1984c(%rip),%xmm0 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,153,146,1,0 // mulps 0x19299(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,5,113,142,1,0 // addps 0x18e71(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,5,28,152,1,0 // mulps 0x1981c(%rip),%xmm8 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,244,147,1,0 // addps 0x193f4(%rip),%xmm8 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32822,13 +33188,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,92,146,1,0 // addps 0x1925c(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,68,140,1,0 // movaps 0x18c44(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,223,151,1,0 // addps 0x197df(%rip),%xmm1 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,13,199,145,1,0 // movaps 0x191c7(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,80,146,1,0 // mulps 0x19250(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,13,40,142,1,0 // addps 0x18e28(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,13,211,151,1,0 // mulps 0x197d3(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,13,171,147,1,0 // addps 0x193ab(%rip),%xmm9 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32841,16 +33207,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,3,146,1,0 // addps 0x19203(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,251,139,1,0 // movaps 0x18bfb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,134,151,1,0 // addps 0x19786(%rip),%xmm1 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,126,145,1,0 // movaps 0x1917e(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,31,146,1,0 // movaps 0x1921f(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,5,162,151,1,0 // movaps 0x197a2(%rip),%xmm8 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,35,146,1,0 // addps 0x19223(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,5,166,151,1,0 // addps 0x197a6(%rip),%xmm8 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,199,139,1,0 // addps 0x18bc7(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,5,74,145,1,0 // addps 0x1914a(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,27,146,1,0 // addps 0x1921b(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,158,151,1,0 // addps 0x1979e(%rip),%xmm8 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32860,17 +33226,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,165,139,1,0 // movaps 0x18ba5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,5,40,145,1,0 // movaps 0x19128(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,205,145,1,0 // movaps 0x191cd(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,21,80,151,1,0 // movaps 0x19750(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,209,145,1,0 // addps 0x191d1(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,21,84,151,1,0 // addps 0x19754(%rip),%xmm10 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,205,145,1,0 // addps 0x191cd(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,80,151,1,0 // addps 0x19750(%rip),%xmm10 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32882,11 +33248,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,156,145,1,0 // addps 0x1919c(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 15,88,13,31,151,1,0 // addps 0x1971f(%rip),%xmm1 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,108,145,1,0 // mulps 0x1916c(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,5,68,141,1,0 // addps 0x18d44(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,5,239,150,1,0 // mulps 0x196ef(%rip),%xmm8 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,199,146,1,0 // addps 0x192c7(%rip),%xmm8 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32997,7 +33363,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,87,144,1,0 // movaps 0x19057(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 15,40,37,218,149,1,0 // movaps 0x195da(%rip),%xmm4 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -33036,7 +33402,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,174,143,1,0 // movdqa 0x18fae(%rip),%xmm12 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,68,15,111,37,49,149,1,0 // movdqa 0x19531(%rip),%xmm12 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -33059,7 +33425,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,242,136,1,0 // movdqa 0x188f2(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,111,37,117,142,1,0 // movdqa 0x18e75(%rip),%xmm4 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -33232,7 +33598,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,189,139,1,0 // movdqa 0x18bbd(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,45,64,145,1,0 // movdqa 0x19140(%rip),%xmm5 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33253,7 +33619,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,14,133,1,0 // movdqa 0x1850e(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,111,61,145,138,1,0 // movdqa 0x18a91(%rip),%xmm7 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -33319,7 +33685,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,249,137,1,0 // movdqa 0x189f9(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,13,124,143,1,0 // movdqa 0x18f7c(%rip),%xmm1 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -33340,7 +33706,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,68,131,1,0 // movdqa 0x18344(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,111,21,199,136,1,0 // movdqa 0x188c7(%rip),%xmm2 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -33467,7 +33833,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,87,135,1,0 // movaps 0x18757(%rip),%xmm3 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 15,40,29,218,140,1,0 // movaps 0x18cda(%rip),%xmm3 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -33524,7 +33890,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,86,134,1,0 // movdqa 0x18656(%rip),%xmm11 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,68,15,111,29,217,139,1,0 // movdqa 0x18bd9(%rip),%xmm11 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -33546,7 +33912,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,158,127,1,0 // movdqa 0x17f9e(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,21,33,133,1,0 // movdqa 0x18521(%rip),%xmm10 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -33564,7 +33930,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,140,133,1,0 // psubd 0x1858c(%rip),%xmm3 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,29,15,139,1,0 // psubd 0x18b0f(%rip),%xmm3 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -33619,7 +33985,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,108,132,1,0 // psubd 0x1846c(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,45,239,137,1,0 // psubd 0x189ef(%rip),%xmm5 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -33744,7 +34110,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,144,123,1,0 // movdqa 0x17b90(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,111,61,19,129,1,0 // movdqa 0x18113(%rip),%xmm7 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -33830,7 +34196,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,212,121,1,0 // movdqa 0x179d4(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,21,87,127,1,0 // movdqa 0x17f57(%rip),%xmm10 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -33926,7 +34292,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,46,126,1,0 // movdqa 0x17e2e(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,21,177,131,1,0 // movdqa 0x183b1(%rip),%xmm2 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -33947,7 +34313,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,125,119,1,0 // movdqa 0x1777d(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,111,37,0,125,1,0 // movdqa 0x17d00(%rip),%xmm4 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -34019,7 +34385,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,89,124,1,0 // psubd 0x17c59(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,21,220,129,1,0 // psubd 0x181dc(%rip),%xmm2 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34053,7 +34419,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,165,123,1,0 // psubd 0x17ba5(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,13,40,129,1,0 // psubd 0x18128(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34118,7 +34484,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,60,122,1,0 // movdqa 0x17a3c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,37,191,127,1,0 // movdqa 0x17fbf(%rip),%xmm4 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -34139,7 +34505,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,141,115,1,0 // movdqa 0x1738d(%rip),%xmm3 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,111,29,16,121,1,0 // movdqa 0x17910(%rip),%xmm3 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34211,7 +34577,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,109,120,1,0 // psubd 0x1786d(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,5,240,125,1,0 // psubd 0x17df0(%rip),%xmm0 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34229,7 +34595,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,187,113,1,0 // paddd 0x171bb(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,5,62,119,1,0 // paddd 0x1773e(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34245,7 +34611,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,180,119,1,0 // psubd 0x177b4(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,5,55,125,1,0 // psubd 0x17d37(%rip),%xmm0 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34263,7 +34629,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,2,113,1,0 // paddd 0x17102(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,5,133,118,1,0 // paddd 0x17685(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -34326,7 +34692,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,191,111,1,0 // movaps 0x16fbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,66,117,1,0 // movaps 0x17542(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -34345,21 +34711,145 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,28,118,1,0 // movaps 0x1761c(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 15,40,5,159,123,1,0 // movaps 0x17b9f(%rip),%xmm0 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,34,118,1,0 // addps 0x17622(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
+ .byte 15,88,5,165,123,1,0 // addps 0x17ba5(%rip),%xmm0 # 3bef0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,40,118,1,0 // addps 0x17628(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
+ .byte 15,88,5,171,123,1,0 // addps 0x17bab(%rip),%xmm0 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,46,118,1,0 // addps 0x1762e(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
+ .byte 15,88,5,177,123,1,0 // addps 0x17bb1(%rip),%xmm0 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1374>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,52,118,1,0 // addps 0x17634(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
+ .byte 15,88,5,183,123,1,0 // addps 0x17bb7(%rip),%xmm0 # 3bf20 <_sk_srcover_bgra_8888_sse2_lowp+0x1384>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_bilerp_clamp_8888_sse41
+.globl _sk_bilerp_clamp_8888_sse41
+FUNCTION(_sk_bilerp_clamp_8888_sse41)
+_sk_bilerp_clamp_8888_sse41:
+ .byte 72,131,236,56 // sub $0x38,%rsp
+ .byte 15,41,124,36,176 // movaps %xmm7,-0x50(%rsp)
+ .byte 15,41,116,36,160 // movaps %xmm6,-0x60(%rsp)
+ .byte 15,41,108,36,144 // movaps %xmm5,-0x70(%rsp)
+ .byte 15,41,100,36,128 // movaps %xmm4,-0x80(%rsp)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,169,116,1,0 // movaps 0x174a9(%rip),%xmm3 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,208 // movaps %xmm0,%xmm10
+ .byte 68,15,88,211 // addps %xmm3,%xmm10
+ .byte 102,65,15,58,8,210,1 // roundps $0x1,%xmm10,%xmm2
+ .byte 68,15,92,210 // subps %xmm2,%xmm10
+ .byte 15,41,12,36 // movaps %xmm1,(%rsp)
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 102,15,58,8,203,1 // roundps $0x1,%xmm3,%xmm1
+ .byte 15,92,217 // subps %xmm1,%xmm3
+ .byte 15,40,13,143,116,1,0 // movaps 0x1748f(%rip),%xmm1 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 65,15,92,210 // subps %xmm10,%xmm2
+ .byte 15,41,84,36,32 // movaps %xmm2,0x20(%rsp)
+ .byte 15,41,92,36,240 // movaps %xmm3,-0x10(%rsp)
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 15,41,76,36,192 // movaps %xmm1,-0x40(%rsp)
+ .byte 243,68,15,16,112,12 // movss 0xc(%rax),%xmm14
+ .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
+ .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
+ .byte 102,68,15,254,241 // paddd %xmm1,%xmm14
+ .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 102,15,254,209 // paddd %xmm1,%xmm2
+ .byte 102,15,127,84,36,224 // movdqa %xmm2,-0x20(%rsp)
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
+ .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
+ .byte 102,15,127,76,36,208 // movdqa %xmm1,-0x30(%rsp)
+ .byte 243,15,16,13,124,107,1,0 // movss 0x16b7c(%rip),%xmm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,40,37,58,118,1,0 // movaps 0x1763a(%rip),%xmm4 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 102,15,239,210 // pxor %xmm2,%xmm2
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,40,238 // movaps %xmm6,%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,44,36 // addps (%rsp),%xmm5
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,95,205 // maxps %xmm5,%xmm1
+ .byte 15,41,116,36,16 // movaps %xmm6,0x10(%rsp)
+ .byte 15,46,53,130,107,1,0 // ucomiss 0x16b82(%rip),%xmm6 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 68,15,40,124,36,240 // movaps -0x10(%rsp),%xmm15
+ .byte 119,6 // ja 24460 <_sk_bilerp_clamp_8888_sse41+0xea>
+ .byte 68,15,40,124,36,192 // movaps -0x40(%rsp),%xmm15
+ .byte 15,93,76,36,224 // minps -0x20(%rsp),%xmm1
+ .byte 243,68,15,91,233 // cvttps2dq %xmm1,%xmm13
+ .byte 102,68,15,56,64,108,36,208 // pmulld -0x30(%rsp),%xmm13
+ .byte 243,15,16,45,30,107,1,0 // movss 0x16b1e(%rip),%xmm5 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,87,246 // xorps %xmm6,%xmm6
+ .byte 15,95,241 // maxps %xmm1,%xmm6
+ .byte 65,15,93,246 // minps %xmm14,%xmm6
+ .byte 243,15,91,206 // cvttps2dq %xmm6,%xmm1
+ .byte 102,65,15,254,205 // paddd %xmm13,%xmm1
+ .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 102,73,15,126,202 // movq %xmm1,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 102,67,15,110,12,152 // movd (%r8,%r11,4),%xmm1
+ .byte 102,67,15,58,34,12,144,1 // pinsrd $0x1,(%r8,%r10,4),%xmm1
+ .byte 102,67,15,58,34,12,136,2 // pinsrd $0x2,(%r8,%r9,4),%xmm1
+ .byte 102,65,15,58,34,12,128,3 // pinsrd $0x3,(%r8,%rax,4),%xmm1
+ .byte 102,15,111,241 // movdqa %xmm1,%xmm6
+ .byte 102,15,219,53,37,116,1,0 // pand 0x17425(%rip),%xmm6 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
+ .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 102,15,111,241 // movdqa %xmm1,%xmm6
+ .byte 102,15,56,0,53,34,116,1,0 // pshufb 0x17422(%rip),%xmm6 # 3b910 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 68,15,91,230 // cvtdq2ps %xmm6,%xmm12
+ .byte 68,15,89,228 // mulps %xmm4,%xmm12
+ .byte 102,15,111,241 // movdqa %xmm1,%xmm6
+ .byte 102,15,56,0,53,29,116,1,0 // pshufb 0x1741d(%rip),%xmm6 # 3b920 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 102,15,114,209,24 // psrld $0x18,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,46,45,185,106,1,0 // ucomiss 0x16ab9(%rip),%xmm5 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 69,15,40,218 // movaps %xmm10,%xmm11
+ .byte 119,6 // ja 24527 <_sk_bilerp_clamp_8888_sse41+0x1b1>
+ .byte 68,15,40,92,36,32 // movaps 0x20(%rsp),%xmm11
+ .byte 69,15,89,223 // mulps %xmm15,%xmm11
+ .byte 65,15,89,251 // mulps %xmm11,%xmm7
+ .byte 68,15,88,207 // addps %xmm7,%xmm9
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 69,15,88,196 // addps %xmm12,%xmm8
+ .byte 65,15,89,243 // mulps %xmm11,%xmm6
+ .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 68,15,89,217 // mulps %xmm1,%xmm11
+ .byte 65,15,88,219 // addps %xmm11,%xmm3
+ .byte 243,15,88,45,250,104,1,0 // addss 0x168fa(%rip),%xmm5 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,13,238,104,1,0 // movss 0x168ee(%rip),%xmm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 15,46,205 // ucomiss %xmm5,%xmm1
+ .byte 15,131,23,255,255,255 // jae 2447a <_sk_bilerp_clamp_8888_sse41+0x104>
+ .byte 15,40,116,36,16 // movaps 0x10(%rsp),%xmm6
+ .byte 243,15,88,53,220,104,1,0 // addss 0x168dc(%rip),%xmm6 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,13,208,104,1,0 // movss 0x168d0(%rip),%xmm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 15,46,206 // ucomiss %xmm6,%xmm1
+ .byte 15,131,180,254,255,255 // jae 24435 <_sk_bilerp_clamp_8888_sse41+0xbf>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
+ .byte 15,40,100,36,128 // movaps -0x80(%rsp),%xmm4
+ .byte 15,40,108,36,144 // movaps -0x70(%rsp),%xmm5
+ .byte 15,40,116,36,160 // movaps -0x60(%rsp),%xmm6
+ .byte 15,40,124,36,176 // movaps -0x50(%rsp),%xmm7
+ .byte 72,131,196,56 // add $0x38,%rsp
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_start_pipeline_sse2
.globl _sk_start_pipeline_sse2
FUNCTION(_sk_start_pipeline_sse2)
@@ -34381,13 +34871,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 23caf <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2465b <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 23c7d <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 24629 <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -34406,10 +34896,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 23c46 <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 245f2 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 23ca6 <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 24652 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34423,7 +34913,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 23c38 <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 245e4 <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -34452,9 +34942,9 @@ _sk_seed_shader_sse2:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,90,110,1,0 // addps 0x16e5a(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,13,174,113,1,0 // addps 0x171ae(%rip),%xmm1 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,97,110,1,0 // movaps 0x16e61(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,181,113,1,0 // movaps 0x171b5(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34469,18 +34959,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,10,110,1,0 // paddd 0x16e0a(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
+ .byte 102,68,15,254,5,94,113,1,0 // paddd 0x1715e(%rip),%xmm8 # 3b820 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,49,110,1,0 // movdqa 0x16e31(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
+ .byte 102,68,15,111,21,133,113,1,0 // movdqa 0x17185(%rip),%xmm10 # 3b860 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,29,110,1,0 // movdqa 0x16e1d(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
- .byte 102,68,15,111,45,36,110,1,0 // movdqa 0x16e24(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,37,113,113,1,0 // movdqa 0x17171(%rip),%xmm12 # 3b870 <_sk_srcover_bgra_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,111,45,120,113,1,0 // movdqa 0x17178(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34496,8 +34986,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,223,109,1,0 // mulps 0x16ddf(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
- .byte 68,15,88,5,231,109,1,0 // addps 0x16de7(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
+ .byte 68,15,89,5,51,113,1,0 // mulps 0x17133(%rip),%xmm8 # 3b890 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
+ .byte 68,15,88,5,59,113,1,0 // addps 0x1713b(%rip),%xmm8 # 3b8a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd04>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -34539,7 +35029,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,29,109,1,0 // movaps 0x16d1d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,113,112,1,0 // movaps 0x17071(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34550,7 +35040,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,9,109,1,0 // movaps 0x16d09(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,5,93,112,1,0 // movaps 0x1705d(%rip),%xmm0 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -34596,7 +35086,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,185,108,1,0 // movaps 0x16cb9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,13,112,1,0 // movaps 0x1700d(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34621,7 +35111,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,108,108,1,0 // movaps 0x16c6c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,192,111,1,0 // movaps 0x16fc0(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -34668,7 +35158,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,0,108,1,0 // movaps 0x16c00(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,84,111,1,0 // movaps 0x16f54(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -34681,7 +35171,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,224,107,1,0 // movaps 0x16be0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,52,111,1,0 // movaps 0x16f34(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -34698,7 +35188,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,179,107,1,0 // movaps 0x16bb3(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,7,111,1,0 // movaps 0x16f07(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34718,7 +35208,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,119,107,1,0 // movaps 0x16b77(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,203,110,1,0 // movaps 0x16ecb(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -34746,7 +35236,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,59,107,1,0 // movaps 0x16b3b(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,143,110,1,0 // movaps 0x16e8f(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -34784,7 +35274,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,188,106,1,0 // movaps 0x16abc(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,16,110,1,0 // movaps 0x16e10(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -34826,7 +35316,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,72,106,1,0 // movaps 0x16a48(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,156,109,1,0 // movaps 0x16d9c(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -34874,7 +35364,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,163,105,1,0 // movaps 0x169a3(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,247,108,1,0 // movaps 0x16cf7(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34908,7 +35398,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,56,105,1,0 // movaps 0x16938(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,140,108,1,0 // movaps 0x16c8c(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34945,7 +35435,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,194,104,1,0 // movaps 0x168c2(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,22,108,1,0 // movaps 0x16c16(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34973,7 +35463,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,114,104,1,0 // movaps 0x16872(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,21,198,107,1,0 // movaps 0x16bc6(%rip),%xmm2 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34986,7 +35476,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,85,104,1,0 // movaps 0x16855(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,169,107,1,0 // movaps 0x16ba9(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35081,7 +35571,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,253,102,1,0 // movaps 0x166fd(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,81,106,1,0 // movaps 0x16a51(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35173,7 +35663,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,166,101,1,0 // movaps 0x165a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,29,250,104,1,0 // movaps 0x168fa(%rip),%xmm11 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -35261,7 +35751,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,100,100,1,0 // movaps 0x16464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,184,103,1,0 // movaps 0x167b8(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35352,7 +35842,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,17,99,1,0 // movaps 0x16311(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,101,102,1,0 // movaps 0x16665(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35365,10 +35855,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,59,99,1,0 // movaps 0x1633b(%rip),%xmm14 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,40,53,143,102,1,0 // movaps 0x1668f(%rip),%xmm14 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,59,99,1,0 // movaps 0x1633b(%rip),%xmm10 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
+ .byte 68,15,40,21,143,102,1,0 // movaps 0x1668f(%rip),%xmm10 # 3b8c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -35513,7 +36003,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,206,96,1,0 // movaps 0x160ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,34,100,1,0 // movaps 0x16422(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -35561,12 +36051,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,139,96,1,0 // movaps 0x1608b(%rip),%xmm15 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,61,223,99,1,0 // movaps 0x163df(%rip),%xmm15 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,144,96,1,0 // movaps 0x16090(%rip),%xmm0 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 15,40,5,228,99,1,0 // movaps 0x163e4(%rip),%xmm0 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,146,96,1,0 // movaps 0x16092(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,53,230,99,1,0 // movaps 0x163e6(%rip),%xmm14 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -35744,14 +36234,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,228,93,1,0 // movaps 0x15de4(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,5,56,97,1,0 // movaps 0x16138(%rip),%xmm8 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,230,93,1,0 // movaps 0x15de6(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 15,40,13,58,97,1,0 // movaps 0x1613a(%rip),%xmm1 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,229,93,1,0 // movaps 0x15de5(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,37,57,97,1,0 // movaps 0x16139(%rip),%xmm12 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -35796,7 +36286,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,154,92,1,0 // movaps 0x15c9a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,238,95,1,0 // movaps 0x15fee(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -35897,14 +36387,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,168,91,1,0 // movaps 0x15ba8(%rip),%xmm13 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,45,252,94,1,0 // movaps 0x15efc(%rip),%xmm13 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,168,91,1,0 // movaps 0x15ba8(%rip),%xmm14 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,53,252,94,1,0 // movaps 0x15efc(%rip),%xmm14 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,164,91,1,0 // movaps 0x15ba4(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,29,248,94,1,0 // movaps 0x15ef8(%rip),%xmm11 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -35912,7 +36402,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,224,90,1,0 // movaps 0x15ae0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,52,94,1,0 // movaps 0x15e34(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -36048,15 +36538,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,103,89,1,0 // movaps 0x15967(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,37,187,92,1,0 // movaps 0x15cbb(%rip),%xmm12 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,103,89,1,0 // movaps 0x15967(%rip),%xmm13 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
+ .byte 68,15,40,45,187,92,1,0 // movaps 0x15cbb(%rip),%xmm13 # 3b8e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,99,89,1,0 // movaps 0x15963(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- .byte 68,15,40,5,187,88,1,0 // movaps 0x158bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,29,183,92,1,0 // movaps 0x15cb7(%rip),%xmm11 # 3b8f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,5,15,92,1,0 // movaps 0x15c0f(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -36198,10 +36688,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 255a5 <_sk_srcover_rgba_8888_sse2+0x129>
+ .byte 15,133,4,1,0,0 // jne 25f51 <_sk_srcover_rgba_8888_sse2+0x129>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,78,87,1,0 // movdqa 0x1574e(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,53,162,90,1,0 // movdqa 0x15aa2(%rip),%xmm6 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -36216,9 +36706,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,95,86,1,0 // movaps 0x1565f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,179,89,1,0 // movaps 0x159b3(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,51,87,1,0 // movaps 0x15733(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,37,135,90,1,0 // movaps 0x15a87(%rip),%xmm12 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -36255,7 +36745,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,78 // jne 255dd <_sk_srcover_rgba_8888_sse2+0x161>
+ .byte 117,78 // jne 25f89 <_sk_srcover_rgba_8888_sse2+0x161>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -36265,32 +36755,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,88 // je 2560a <_sk_srcover_rgba_8888_sse2+0x18e>
+ .byte 116,88 // je 25fb6 <_sk_srcover_rgba_8888_sse2+0x18e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 255d2 <_sk_srcover_rgba_8888_sse2+0x156>
+ .byte 116,22 // je 25f7e <_sk_srcover_rgba_8888_sse2+0x156>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,225,254,255,255 // jne 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 15,133,225,254,255,255 // jne 25e53 <_sk_srcover_rgba_8888_sse2+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0
- .byte 233,202,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 233,202,254,255,255 // jmpq 25e53 <_sk_srcover_rgba_8888_sse2+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 25615 <_sk_srcover_rgba_8888_sse2+0x199>
+ .byte 116,43 // je 25fc1 <_sk_srcover_rgba_8888_sse2+0x199>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 25602 <_sk_srcover_rgba_8888_sse2+0x186>
+ .byte 116,18 // je 25fae <_sk_srcover_rgba_8888_sse2+0x186>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,159 // jne 25595 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 117,159 // jne 25f41 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,139 // jmp 25595 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 235,139 // jmp 25f41 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,146,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 233,146,254,255,255 // jmpq 25e53 <_sk_srcover_rgba_8888_sse2+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,117,255,255,255 // jmpq 25595 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 233,117,255,255,255 // jmpq 25f41 <_sk_srcover_rgba_8888_sse2+0x119>
HIDDEN _sk_srcover_bgra_8888_sse2
.globl _sk_srcover_bgra_8888_sse2
@@ -36305,10 +36795,10 @@ _sk_srcover_bgra_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 25749 <_sk_srcover_bgra_8888_sse2+0x129>
+ .byte 15,133,4,1,0,0 // jne 260f5 <_sk_srcover_bgra_8888_sse2+0x129>
.byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,170,85,1,0 // movdqa 0x155aa(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,37,254,88,1,0 // movdqa 0x158fe(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
@@ -36323,9 +36813,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,91,231 // cvtdq2ps %xmm7,%xmm4
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,187,84,1,0 // movaps 0x154bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,15,88,1,0 // movaps 0x1580f(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,143,85,1,0 // movaps 0x1558f(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,37,227,88,1,0 // movaps 0x158e3(%rip),%xmm12 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -36362,7 +36852,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,78 // jne 25781 <_sk_srcover_bgra_8888_sse2+0x161>
+ .byte 117,78 // jne 2612d <_sk_srcover_bgra_8888_sse2+0x161>
.byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -36372,32 +36862,32 @@ _sk_srcover_bgra_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,88 // je 257ae <_sk_srcover_bgra_8888_sse2+0x18e>
+ .byte 116,88 // je 2615a <_sk_srcover_bgra_8888_sse2+0x18e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 25776 <_sk_srcover_bgra_8888_sse2+0x156>
+ .byte 116,22 // je 26122 <_sk_srcover_bgra_8888_sse2+0x156>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,225,254,255,255 // jne 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 15,133,225,254,255,255 // jne 25ff7 <_sk_srcover_bgra_8888_sse2+0x2b>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0
- .byte 233,202,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 233,202,254,255,255 // jmpq 25ff7 <_sk_srcover_bgra_8888_sse2+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 257b9 <_sk_srcover_bgra_8888_sse2+0x199>
+ .byte 116,43 // je 26165 <_sk_srcover_bgra_8888_sse2+0x199>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 257a6 <_sk_srcover_bgra_8888_sse2+0x186>
+ .byte 116,18 // je 26152 <_sk_srcover_bgra_8888_sse2+0x186>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,159 // jne 25739 <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 117,159 // jne 260e5 <_sk_srcover_bgra_8888_sse2+0x119>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4)
.byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
- .byte 235,139 // jmp 25739 <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 235,139 // jmp 260e5 <_sk_srcover_bgra_8888_sse2+0x119>
.byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 233,146,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 233,146,254,255,255 // jmpq 25ff7 <_sk_srcover_bgra_8888_sse2+0x2b>
.byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
- .byte 233,117,255,255,255 // jmpq 25739 <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 233,117,255,255,255 // jmpq 260e5 <_sk_srcover_bgra_8888_sse2+0x119>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -36415,7 +36905,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,108,83,1,0 // movaps 0x1536c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,192,86,1,0 // movaps 0x156c0(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36427,7 +36917,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,81,83,1,0 // minps 0x15351(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,93,29,165,86,1,0 // minps 0x156a5(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36438,7 +36928,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,61,83,1,0 // minps 0x1533d(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,93,61,145,86,1,0 // minps 0x15691(%rip),%xmm7 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36473,7 +36963,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,249,82,1,0 // movaps 0x152f9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,77,86,1,0 // movaps 0x1564d(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36534,10 +37024,10 @@ HIDDEN _sk_unpremul_sse2
.globl _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
- .byte 68,15,40,5,135,82,1,0 // movaps 0x15287(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,219,85,1,0 // movaps 0x155db(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,102,83,1,0,1 // cmpltps 0x15366(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
+ .byte 68,15,194,13,186,86,1,0,1 // cmpltps 0x156ba(%rip),%xmm9 # 3b940 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -36549,20 +37039,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,90,83,1,0 // movaps 0x1535a(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
+ .byte 68,15,40,5,174,86,1,0 // movaps 0x156ae(%rip),%xmm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,194,82,1,0 // movaps 0x152c2(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,13,22,86,1,0 // movaps 0x15616(%rip),%xmm9 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,66,83,1,0 // movaps 0x15342(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,21,150,86,1,0 // movaps 0x15696(%rip),%xmm10 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,66,83,1,0 // movaps 0x15342(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,29,150,86,1,0 // movaps 0x15696(%rip),%xmm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,70,83,1,0 // movaps 0x15346(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,37,154,86,1,0 // movaps 0x1569a(%rip),%xmm12 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -36598,20 +37088,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,151,82,1,0 // movaps 0x15297(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
+ .byte 68,15,40,5,235,85,1,0 // movaps 0x155eb(%rip),%xmm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,255,81,1,0 // movaps 0x151ff(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
+ .byte 68,15,40,13,83,85,1,0 // movaps 0x15553(%rip),%xmm9 # 3b8d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,127,82,1,0 // movaps 0x1527f(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,21,211,85,1,0 // movaps 0x155d3(%rip),%xmm10 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,127,82,1,0 // movaps 0x1527f(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
+ .byte 68,15,40,29,211,85,1,0 // movaps 0x155d3(%rip),%xmm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,131,82,1,0 // movaps 0x15283(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,37,215,85,1,0 // movaps 0x155d7(%rip),%xmm12 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -36648,22 +37138,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,16,82,1,0 // movaps 0x15210(%rip),%xmm8 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
+ .byte 68,15,40,5,100,85,1,0 // movaps 0x15564(%rip),%xmm8 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,16,82,1,0 // movaps 0x15210(%rip),%xmm9 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,13,100,85,1,0 // movaps 0x15564(%rip),%xmm9 # 3b9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe04>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,16,82,1,0 // movaps 0x15210(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
+ .byte 68,15,40,21,100,85,1,0 // movaps 0x15564(%rip),%xmm10 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe14>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,16,82,1,0 // movaps 0x15210(%rip),%xmm11 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
+ .byte 68,15,40,29,100,85,1,0 // movaps 0x15564(%rip),%xmm11 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe24>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,20,82,1,0 // movaps 0x15214(%rip),%xmm12 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
+ .byte 68,15,40,37,104,85,1,0 // movaps 0x15568(%rip),%xmm12 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe34>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,16,82,1,0 // movaps 0x15210(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
+ .byte 68,15,40,61,100,85,1,0 // movaps 0x15564(%rip),%xmm15 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe44>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -36715,7 +37205,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,195,79,1,0 // movaps 0x14fc3(%rip),%xmm13 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,45,23,83,1,0 // movaps 0x15317(%rip),%xmm13 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -36724,30 +37214,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,57,81,1,0 // andps 0x15139(%rip),%xmm14 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
+ .byte 68,15,84,53,141,84,1,0 // andps 0x1548d(%rip),%xmm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,44,81,1,0 // movaps 0x1512c(%rip),%xmm12 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
+ .byte 68,15,40,37,128,84,1,0 // movaps 0x15480(%rip),%xmm12 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,40,81,1,0 // addps 0x15128(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
+ .byte 68,15,88,5,124,84,1,0 // addps 0x1547c(%rip),%xmm8 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,25,81,1,0 // mulps 0x15119(%rip),%xmm0 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 15,89,5,109,84,1,0 // mulps 0x1546d(%rip),%xmm0 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,28,79,1,0 // movaps 0x14f1c(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,13,112,82,1,0 // movaps 0x15270(%rip),%xmm9 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -36771,7 +37261,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,203,78,1,0 // movaps 0x14ecb(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,13,31,82,1,0 // movaps 0x1521f(%rip),%xmm9 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -36788,28 +37278,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,116,80,1,0 // movaps 0x15074(%rip),%xmm0 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
+ .byte 15,40,5,200,83,1,0 // movaps 0x153c8(%rip),%xmm0 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,124,78,1,0 // andps 0x14e7c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,84,29,208,81,1,0 // andps 0x151d0(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,94,80,1,0 // movaps 0x1505e(%rip),%xmm13 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
+ .byte 68,15,40,45,178,83,1,0 // movaps 0x153b2(%rip),%xmm13 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,30,80,1,0 // movaps 0x1501e(%rip),%xmm2 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
+ .byte 15,40,21,114,83,1,0 // movaps 0x15372(%rip),%xmm2 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,222,79,1,0 // movaps 0x14fde(%rip),%xmm1 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
+ .byte 15,40,13,50,83,1,0 // movaps 0x15332(%rip),%xmm1 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,244,79,1,0 // movaps 0x14ff4(%rip),%xmm5 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
+ .byte 15,40,45,72,83,1,0 // movaps 0x15348(%rip),%xmm5 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -36832,7 +37322,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,217,77,1,0 // andps 0x14dd9(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,84,29,45,81,1,0 // andps 0x1512d(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -36862,12 +37352,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,97,79,1,0 // addps 0x14f61(%rip),%xmm6 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 15,88,53,181,82,1,0 // addps 0x152b5(%rip),%xmm6 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,76,77,1,0 // andps 0x14d4c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,84,29,160,80,1,0 // andps 0x150a0(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -36931,13 +37421,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 25f05 <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 268b1 <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,31,77,1,0 // pand 0x14d1f(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,68,15,219,5,115,80,1,0 // pand 0x15073(%rip),%xmm8 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,115,78,1,0 // mulps 0x14e73(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,199,81,1,0 // mulps 0x151c7(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -36948,12 +37438,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 25f4f <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 268fb <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 25f34 <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 268e0 <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 25ed8 <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 26884 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36962,10 +37452,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 25ed8 <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 26884 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 25ed8 <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 26884 <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -36979,20 +37469,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 2602a <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 269d6 <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,223,77,1,0 // movdqa 0x14ddf(%rip),%xmm8 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,68,15,111,5,51,81,1,0 // movdqa 0x15133(%rip),%xmm8 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,222,77,1,0 // mulps 0x14dde(%rip),%xmm8 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,68,15,111,13,229,77,1,0 // movdqa 0x14de5(%rip),%xmm9 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 68,15,89,5,50,81,1,0 // mulps 0x15132(%rip),%xmm8 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,13,57,81,1,0 // movdqa 0x15139(%rip),%xmm9 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,228,77,1,0 // mulps 0x14de4(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,68,15,219,21,235,77,1,0 // pand 0x14deb(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 68,15,89,13,56,81,1,0 // mulps 0x15138(%rip),%xmm9 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,219,21,63,81,1,0 // pand 0x1513f(%rip),%xmm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,239,77,1,0 // mulps 0x14def(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,21,67,81,1,0 // mulps 0x15143(%rip),%xmm10 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -37019,22 +37509,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 26073 <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 26a1f <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 2605d <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 26a09 <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 25f88 <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 26934 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 26934 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 26934 <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -37069,13 +37559,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 26123 <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 26acf <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,21,75,1,0 // pand 0x14b15(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,68,15,219,5,105,78,1,0 // pand 0x14e69(%rip),%xmm8 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,105,76,1,0 // mulps 0x14c69(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,89,5,189,79,1,0 // mulps 0x14fbd(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37093,12 +37583,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 26170 <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 26b1c <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 26152 <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 26afe <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 260e2 <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 26a8e <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37107,10 +37597,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 26a8e <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 26a8e <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -37124,20 +37614,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 2624b <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 26bf7 <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,190,75,1,0 // movdqa 0x14bbe(%rip),%xmm9 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,68,15,111,13,18,79,1,0 // movdqa 0x14f12(%rip),%xmm9 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,189,75,1,0 // mulps 0x14bbd(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,68,15,111,21,196,75,1,0 // movdqa 0x14bc4(%rip),%xmm10 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 68,15,89,13,17,79,1,0 // mulps 0x14f11(%rip),%xmm9 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,21,24,79,1,0 // movdqa 0x14f18(%rip),%xmm10 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,195,75,1,0 // mulps 0x14bc3(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,68,15,219,5,202,75,1,0 // pand 0x14bca(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 68,15,89,29,23,79,1,0 // mulps 0x14f17(%rip),%xmm11 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,219,5,30,79,1,0 // pand 0x14f1e(%rip),%xmm8 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,206,75,1,0 // mulps 0x14bce(%rip),%xmm8 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 68,15,89,5,34,79,1,0 // mulps 0x14f22(%rip),%xmm8 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -37166,22 +37656,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 26294 <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 26c40 <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 2627e <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 26c2a <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 261a9 <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 26b55 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 26b55 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 26b55 <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -37190,11 +37680,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 263d3 <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 26d7f <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,61,73,1,0 // movdqa 0x1493d(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,68,15,111,5,145,76,1,0 // movdqa 0x14c91(%rip),%xmm8 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -37250,7 +37740,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,148,73,1,0 // mulps 0x14994(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,29,232,76,1,0 // mulps 0x14ce8(%rip),%xmm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37258,18 +37748,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 2640d <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 26db9 <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 26402 <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 26dae <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 262b7 <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 26c63 <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 26c63 <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 26c63 <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -37279,7 +37769,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 2658b <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 26f37 <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -37290,7 +37780,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,110,73,1,0 // movdqa 0x1496e(%rip),%xmm2 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 102,15,111,21,194,76,1,0 // movdqa 0x14cc2(%rip),%xmm2 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -37351,23 +37841,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,108,72,1,0 // mulps 0x1486c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 15,89,29,192,75,1,0 // mulps 0x14bc0(%rip),%xmm3 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 265a4 <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 26f50 <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 26de7 <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 2643b <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 26de7 <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 26de7 <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -37377,7 +37867,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 26728 <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 270d4 <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37392,7 +37882,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,176,71,1,0 // movdqa 0x147b0(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
+ .byte 102,68,15,111,5,4,75,1,0 // movdqa 0x14b04(%rip),%xmm8 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -37447,7 +37937,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,45,68,1,0 // movaps 0x1442d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,129,71,1,0 // movaps 0x14781(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37455,21 +37945,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 2674e <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 270fa <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 26fa9 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 2677f <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 2712b <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 26fa9 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 26fa9 <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -37482,9 +37972,9 @@ _sk_byte_tables_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,173,67,1,0 // movaps 0x143ad(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,1,71,1,0 // movaps 0x14701(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,129,68,1,0 // movaps 0x14481(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,21,213,71,1,0 // movaps 0x147d5(%rip),%xmm10 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -37511,7 +38001,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,64,69,1,0 // movaps 0x14540(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,29,148,72,1,0 // movaps 0x14894(%rip),%xmm11 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -37615,7 +38105,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,169,65,1,0 // movaps 0x141a9(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,253,68,1,0 // movaps 0x144fd(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,218 // minps %xmm10,%xmm11
.byte 69,15,89,217 // mulps %xmm9,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
@@ -37643,7 +38133,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,68,67,1,0 // movaps 0x14344(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,29,152,70,1,0 // movaps 0x14698(%rip),%xmm11 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -37717,7 +38207,7 @@ _sk_table_r_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,37,64,1,0 // minps 0x14025(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,121,67,1,0 // minps 0x14379(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0
@@ -37750,7 +38240,7 @@ _sk_table_g_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,172,63,1,0 // minps 0x13fac(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,0,67,1,0 // minps 0x14300(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm1
@@ -37783,7 +38273,7 @@ _sk_table_b_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,51,63,1,0 // minps 0x13f33(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,135,66,1,0 // minps 0x14287(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm2
@@ -37816,7 +38306,7 @@ _sk_table_a_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,186,62,1,0 // minps 0x13eba(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,13,14,66,1,0 // minps 0x1420e(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
@@ -37860,16 +38350,16 @@ _sk_parametric_r_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,178,64,1,0 // mulps 0x140b2(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,186,64,1,0 // movaps 0x140ba(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,29,6,68,1,0 // mulps 0x14406(%rip),%xmm11 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,14,68,1,0 // movaps 0x1440e(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,222,61,1,0 // orps 0x13dde(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,29,182,64,1,0 // addps 0x140b6(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,53,190,64,1,0 // movaps 0x140be(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,50,65,1,0 // orps 0x14132(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,29,10,68,1,0 // addps 0x1440a(%rip),%xmm11 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,53,18,68,1,0 // movaps 0x14412(%rip),%xmm14 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,190,64,1,0 // addps 0x140be(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 68,15,40,53,198,64,1,0 // movaps 0x140c6(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,18,68,1,0 // addps 0x14412(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,53,26,68,1,0 // movaps 0x1441a(%rip),%xmm14 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -37877,21 +38367,21 @@ _sk_parametric_r_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,160,61,1,0 // movaps 0x13da0(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,244,64,1,0 // movaps 0x140f4(%rip),%xmm12 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,152,64,1,0 // addps 0x14098(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,29,236,67,1,0 // addps 0x143ec(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,45,244,67,1,0 // movaps 0x143f4(%rip),%xmm13 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,45,244,67,1,0 // movaps 0x143f4(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,164,64,1,0 // movaps 0x140a4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,53,248,67,1,0 // movaps 0x143f8(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,164,64,1,0 // mulps 0x140a4(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,53,248,67,1,0 // mulps 0x143f8(%rip),%xmm14 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -37930,16 +38420,16 @@ _sk_parametric_g_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,103,63,1,0 // mulps 0x13f67(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,111,63,1,0 // movaps 0x13f6f(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,29,187,66,1,0 // mulps 0x142bb(%rip),%xmm11 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,195,66,1,0 // movaps 0x142c3(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,147,60,1,0 // orps 0x13c93(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,29,107,63,1,0 // addps 0x13f6b(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,53,115,63,1,0 // movaps 0x13f73(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,231,63,1,0 // orps 0x13fe7(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,29,191,66,1,0 // addps 0x142bf(%rip),%xmm11 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,53,199,66,1,0 // movaps 0x142c7(%rip),%xmm14 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,115,63,1,0 // addps 0x13f73(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 68,15,40,53,123,63,1,0 // movaps 0x13f7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,199,66,1,0 // addps 0x142c7(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,53,207,66,1,0 // movaps 0x142cf(%rip),%xmm14 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -37947,21 +38437,21 @@ _sk_parametric_g_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,85,60,1,0 // movaps 0x13c55(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,169,63,1,0 // movaps 0x13fa9(%rip),%xmm12 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,77,63,1,0 // addps 0x13f4d(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,29,161,66,1,0 // addps 0x142a1(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,45,169,66,1,0 // movaps 0x142a9(%rip),%xmm13 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,45,169,66,1,0 // movaps 0x142a9(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,89,63,1,0 // movaps 0x13f59(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,53,173,66,1,0 // movaps 0x142ad(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,89,63,1,0 // mulps 0x13f59(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,53,173,66,1,0 // mulps 0x142ad(%rip),%xmm14 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38000,16 +38490,16 @@ _sk_parametric_b_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,28,62,1,0 // mulps 0x13e1c(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,36,62,1,0 // movaps 0x13e24(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,29,112,65,1,0 // mulps 0x14170(%rip),%xmm11 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,120,65,1,0 // movaps 0x14178(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,72,59,1,0 // orps 0x13b48(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,29,32,62,1,0 // addps 0x13e20(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,53,40,62,1,0 // movaps 0x13e28(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,156,62,1,0 // orps 0x13e9c(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,29,116,65,1,0 // addps 0x14174(%rip),%xmm11 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,53,124,65,1,0 // movaps 0x1417c(%rip),%xmm14 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,40,62,1,0 // addps 0x13e28(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 68,15,40,53,48,62,1,0 // movaps 0x13e30(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,124,65,1,0 // addps 0x1417c(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,53,132,65,1,0 // movaps 0x14184(%rip),%xmm14 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38017,21 +38507,21 @@ _sk_parametric_b_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,10,59,1,0 // movaps 0x13b0a(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,94,62,1,0 // movaps 0x13e5e(%rip),%xmm12 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,2,62,1,0 // addps 0x13e02(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,29,86,65,1,0 // addps 0x14156(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,45,94,65,1,0 // movaps 0x1415e(%rip),%xmm13 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,45,94,65,1,0 // movaps 0x1415e(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,14,62,1,0 // movaps 0x13e0e(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,53,98,65,1,0 // movaps 0x14162(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,14,62,1,0 // mulps 0x13e0e(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,53,98,65,1,0 // mulps 0x14162(%rip),%xmm14 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38070,16 +38560,16 @@ _sk_parametric_a_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,209,60,1,0 // mulps 0x13cd1(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- .byte 68,15,40,45,217,60,1,0 // movaps 0x13cd9(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,89,29,37,64,1,0 // mulps 0x14025(%rip),%xmm11 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 68,15,40,45,45,64,1,0 // movaps 0x1402d(%rip),%xmm13 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,253,57,1,0 // orps 0x139fd(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 68,15,88,29,213,60,1,0 // addps 0x13cd5(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,53,221,60,1,0 // movaps 0x13cdd(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 68,15,86,45,81,61,1,0 // orps 0x13d51(%rip),%xmm13 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,29,41,64,1,0 // addps 0x14029(%rip),%xmm11 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,53,49,64,1,0 // movaps 0x14031(%rip),%xmm14 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,221,60,1,0 // addps 0x13cdd(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- .byte 68,15,40,53,229,60,1,0 // movaps 0x13ce5(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,88,45,49,64,1,0 // addps 0x14031(%rip),%xmm13 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,53,57,64,1,0 // movaps 0x14039(%rip),%xmm14 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38087,21 +38577,21 @@ _sk_parametric_a_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,191,57,1,0 // movaps 0x139bf(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,19,61,1,0 // movaps 0x13d13(%rip),%xmm12 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,183,60,1,0 // addps 0x13cb7(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 68,15,88,29,11,64,1,0 // addps 0x1400b(%rip),%xmm11 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,45,19,64,1,0 // movaps 0x14013(%rip),%xmm13 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 68,15,40,45,19,64,1,0 // movaps 0x14013(%rip),%xmm13 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,195,60,1,0 // movaps 0x13cc3(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,53,23,64,1,0 // movaps 0x14017(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,195,60,1,0 // mulps 0x13cc3(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,53,23,64,1,0 // mulps 0x14017(%rip),%xmm14 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38129,21 +38619,21 @@ _sk_gamma_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,192,59,1,0 // movaps 0x13bc0(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,40,5,20,63,1,0 // movaps 0x13f14(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,194,59,1,0 // movaps 0x13bc2(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,40,5,22,63,1,0 // movaps 0x13f16(%rip),%xmm8 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,228,56,1,0 // orps 0x138e4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 15,88,53,189,59,1,0 // addps 0x13bbd(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,29,197,59,1,0 // movaps 0x13bc5(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 15,86,5,56,60,1,0 // orps 0x13c38(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,53,17,63,1,0 // addps 0x13f11(%rip),%xmm6 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,29,25,63,1,0 // movaps 0x13f19(%rip),%xmm11 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,195,59,1,0 // movaps 0x13bc3(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,61,23,63,1,0 // movaps 0x13f17(%rip),%xmm15 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,199,59,1,0 // movaps 0x13bc7(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,45,27,63,1,0 // movaps 0x13f1b(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -38155,23 +38645,23 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,155,56,1,0 // andps 0x1389b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,84,13,239,59,1,0 // andps 0x13bef(%rip),%xmm1 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,155,59,1,0 // addps 0x13b9b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 15,40,21,180,59,1,0 // movaps 0x13bb4(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,88,53,239,62,1,0 // addps 0x13eef(%rip),%xmm6 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,40,21,8,63,1,0 // movaps 0x13f08(%rip),%xmm2 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,146,59,1,0 // movaps 0x13b92(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,13,230,62,1,0 // movaps 0x13ee6(%rip),%xmm1 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,53,164,59,1,0 // movaps 0x13ba4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,53,248,62,1,0 // movaps 0x13ef8(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,161,59,1,0 // movaps 0x13ba1(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,13,245,62,1,0 // movaps 0x13ef5(%rip),%xmm9 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -38181,9 +38671,9 @@ _sk_gamma_sse2:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,25,56,1,0 // movaps 0x13819(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,53,109,59,1,0 // movaps 0x13b6d(%rip),%xmm6 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,239,58,1,0 // addps 0x13aef(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,67,62,1,0 // addps 0x13e43(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -38196,12 +38686,12 @@ _sk_gamma_sse2:
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 68,15,40,61,238,55,1,0 // movaps 0x137ee(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,61,66,59,1,0 // movaps 0x13b42(%rip),%xmm15 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 15,88,5,234,58,1,0 // addps 0x13aea(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,88,5,62,62,1,0 // addps 0x13e3e(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -38215,13 +38705,13 @@ _sk_gamma_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,85,58,1,0 // mulps 0x13a55(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,89,5,169,61,1,0 // mulps 0x13da9(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,102,58,1,0 // addps 0x13a66(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,186,61,1,0 // addps 0x13dba(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,118,58,1,0 // addps 0x13a76(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,88,5,202,61,1,0 // addps 0x13dca(%rip),%xmm8 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -38233,7 +38723,7 @@ _sk_gamma_sse2:
.byte 15,92,221 // subps %xmm5,%xmm3
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,88,5,105,58,1,0 // addps 0x13a69(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,88,5,189,61,1,0 // addps 0x13dbd(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,213 // subps %xmm5,%xmm2
@@ -38267,21 +38757,21 @@ _sk_gamma_dst_sse2:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,144,57,1,0 // movaps 0x13990(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,40,5,228,60,1,0 // movaps 0x13ce4(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,146,57,1,0 // movaps 0x13992(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
+ .byte 68,15,40,5,230,60,1,0 // movaps 0x13ce6(%rip),%xmm8 # 3bb10 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,180,54,1,0 // orps 0x136b4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
- .byte 15,88,29,141,57,1,0 // addps 0x1398d(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- .byte 68,15,40,29,149,57,1,0 // movaps 0x13995(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
+ .byte 15,86,5,8,58,1,0 // orps 0x13a08(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,29,225,60,1,0 // addps 0x13ce1(%rip),%xmm3 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 68,15,40,29,233,60,1,0 // movaps 0x13ce9(%rip),%xmm11 # 3bb30 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,147,57,1,0 // movaps 0x13993(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,61,231,60,1,0 // movaps 0x13ce7(%rip),%xmm15 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,151,57,1,0 // movaps 0x13997(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
+ .byte 68,15,40,45,235,60,1,0 // movaps 0x13ceb(%rip),%xmm13 # 3bb50 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -38293,23 +38783,23 @@ _sk_gamma_dst_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,107,54,1,0 // andps 0x1366b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,84,13,191,57,1,0 // andps 0x139bf(%rip),%xmm1 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,107,57,1,0 // addps 0x1396b(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- .byte 15,40,21,132,57,1,0 // movaps 0x13984(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
+ .byte 15,88,29,191,60,1,0 // addps 0x13cbf(%rip),%xmm3 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,40,21,216,60,1,0 // movaps 0x13cd8(%rip),%xmm2 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,98,57,1,0 // movaps 0x13962(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
+ .byte 15,40,13,182,60,1,0 // movaps 0x13cb6(%rip),%xmm1 # 3bb70 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,53,116,57,1,0 // movaps 0x13974(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
+ .byte 68,15,40,53,200,60,1,0 // movaps 0x13cc8(%rip),%xmm14 # 3bb90 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,113,57,1,0 // movaps 0x13971(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
+ .byte 68,15,40,13,197,60,1,0 // movaps 0x13cc5(%rip),%xmm9 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -38319,9 +38809,9 @@ _sk_gamma_dst_sse2:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,233,53,1,0 // movaps 0x135e9(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,29,61,57,1,0 // movaps 0x1393d(%rip),%xmm3 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,191,56,1,0 // addps 0x138bf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,19,60,1,0 // addps 0x13c13(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -38334,12 +38824,12 @@ _sk_gamma_dst_sse2:
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 68,15,40,61,190,53,1,0 // movaps 0x135be(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,61,18,57,1,0 // movaps 0x13912(%rip),%xmm15 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,5,186,56,1,0 // addps 0x138ba(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,88,5,14,60,1,0 // addps 0x13c0e(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -38353,13 +38843,13 @@ _sk_gamma_dst_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,37,56,1,0 // mulps 0x13825(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 15,89,5,121,59,1,0 // mulps 0x13b79(%rip),%xmm0 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,54,56,1,0 // addps 0x13836(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,88,5,138,59,1,0 // addps 0x13b8a(%rip),%xmm0 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,70,56,1,0 // addps 0x13846(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,88,5,154,59,1,0 // addps 0x13b9a(%rip),%xmm8 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -38371,7 +38861,7 @@ _sk_gamma_dst_sse2:
.byte 15,92,230 // subps %xmm6,%xmm4
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,5,57,56,1,0 // addps 0x13839(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,88,5,141,59,1,0 // addps 0x13b8d(%rip),%xmm0 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,214 // subps %xmm6,%xmm2
@@ -38396,29 +38886,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,55,56,1,0 // mulps 0x13837(%rip),%xmm0 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- .byte 68,15,40,5,175,53,1,0 // movaps 0x135af(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 15,89,5,139,59,1,0 // mulps 0x13b8b(%rip),%xmm0 # 3bbb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
+ .byte 68,15,40,5,3,57,1,0 // movaps 0x13903(%rip),%xmm8 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,51,56,1,0 // movaps 0x13833(%rip),%xmm9 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
+ .byte 68,15,40,13,135,59,1,0 // movaps 0x13b87(%rip),%xmm9 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1024>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,48,56,1,0 // addps 0x13830(%rip),%xmm0 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- .byte 15,89,5,57,56,1,0 // mulps 0x13839(%rip),%xmm0 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- .byte 15,89,13,66,56,1,0 // mulps 0x13842(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
+ .byte 15,88,5,132,59,1,0 // addps 0x13b84(%rip),%xmm0 # 3bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1034>
+ .byte 15,89,5,141,59,1,0 // mulps 0x13b8d(%rip),%xmm0 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1044>
+ .byte 15,89,13,150,59,1,0 // mulps 0x13b96(%rip),%xmm1 # 3bbf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1054>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,72,56,1,0 // mulps 0x13848(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
+ .byte 15,89,21,156,59,1,0 // mulps 0x13b9c(%rip),%xmm2 # 3bc00 <_sk_srcover_bgra_8888_sse2_lowp+0x1064>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,61,56,1,0 // movaps 0x1383d(%rip),%xmm2 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
+ .byte 15,40,21,145,59,1,0 // movaps 0x13b91(%rip),%xmm2 # 3bc10 <_sk_srcover_bgra_8888_sse2_lowp+0x1074>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,60,56,1,0 // movaps 0x1383c(%rip),%xmm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
+ .byte 68,15,40,21,144,59,1,0 // movaps 0x13b90(%rip),%xmm10 # 3bc20 <_sk_srcover_bgra_8888_sse2_lowp+0x1084>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,64,56,1,0 // movaps 0x13840(%rip),%xmm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
+ .byte 68,15,40,29,148,59,1,0 // movaps 0x13b94(%rip),%xmm11 # 3bc30 <_sk_srcover_bgra_8888_sse2_lowp+0x1094>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -38442,8 +38932,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,240,55,1,0 // mulps 0x137f0(%rip),%xmm8 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- .byte 15,89,21,249,55,1,0 // mulps 0x137f9(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
+ .byte 68,15,89,5,68,59,1,0 // mulps 0x13b44(%rip),%xmm8 # 3bc40 <_sk_srcover_bgra_8888_sse2_lowp+0x10a4>
+ .byte 15,89,21,77,59,1,0 // mulps 0x13b4d(%rip),%xmm2 # 3bc50 <_sk_srcover_bgra_8888_sse2_lowp+0x10b4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38459,13 +38949,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 277a5 <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 28151 <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,115,52,1,0 // pand 0x13473(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,5,199,55,1,0 // pand 0x137c7(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,201,53,1,0 // mulps 0x135c9(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,29,29,57,1,0 // mulps 0x1391d(%rip),%xmm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -38474,12 +38964,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 277e8 <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 28194 <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 277d1 <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 2817d <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 27785 <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 28131 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38488,10 +38978,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 27785 <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 28131 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 27785 <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 28131 <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -38504,13 +38994,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 27839 <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 281e5 <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,223,51,1,0 // pand 0x133df(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,37,51,55,1,0 // pand 0x13733(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,53,53,1,0 // mulps 0x13535(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,61,137,56,1,0 // mulps 0x13889(%rip),%xmm7 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -38519,12 +39009,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 2787c <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 28228 <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27865 <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 28211 <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 27819 <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 281c5 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38533,10 +39023,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 27819 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 281c5 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 27819 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 281c5 <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -38589,7 +39079,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,15,52,1,0 // mulps 0x1340f(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,29,99,55,1,0 // mulps 0x13763(%rip),%xmm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38608,15 +39098,15 @@ _sk_store_a8_sse2:
.byte 76,99,210 // movslq %edx,%r10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,206,49,1,0 // minps 0x131ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- .byte 68,15,89,5,166,50,1,0 // mulps 0x132a6(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,93,5,34,53,1,0 // minps 0x13522(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,89,5,250,53,1,0 // mulps 0x135fa(%rip),%xmm8 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 279b7 <_sk_store_a8_sse2+0x58>
+ .byte 117,13 // jne 28363 <_sk_store_a8_sse2+0x58>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38626,22 +39116,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 27a04 <_sk_store_a8_sse2+0xa5>
+ .byte 116,54 // je 283b0 <_sk_store_a8_sse2+0xa5>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 279e5 <_sk_store_a8_sse2+0x86>
+ .byte 116,17 // je 28391 <_sk_store_a8_sse2+0x86>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 279b3 <_sk_store_a8_sse2+0x54>
+ .byte 117,217 // jne 2835f <_sk_store_a8_sse2+0x54>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,18,50,1,0 // pand 0x13212(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,68,15,219,5,102,53,1,0 // pand 0x13566(%rip),%xmm8 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 279b3 <_sk_store_a8_sse2+0x54>
+ .byte 235,175 // jmp 2835f <_sk_store_a8_sse2+0x54>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 279b3 <_sk_store_a8_sse2+0x54>
+ .byte 235,164 // jmp 2835f <_sk_store_a8_sse2+0x54>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -38654,27 +39144,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 27a58 <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 28404 <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,195,49,1,0 // pand 0x131c3(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,5,23,53,1,0 // pand 0x13517(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,25,51,1,0 // mulps 0x13319(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,5,109,54,1,0 // mulps 0x1366d(%rip),%xmm0 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,0,49,1,0 // movaps 0x13100(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,84,52,1,0 // movaps 0x13454(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 27a9b <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 28447 <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27a84 <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 28430 <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 27a35 <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 283e1 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38683,10 +39173,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 27a35 <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 283e1 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 27a35 <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 283e1 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -38699,27 +39189,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 27aef <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 2849b <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,44,49,1,0 // pand 0x1312c(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,37,128,52,1,0 // pand 0x13480(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,130,50,1,0 // mulps 0x13282(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,37,214,53,1,0 // mulps 0x135d6(%rip),%xmm4 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,105,48,1,0 // movaps 0x13069(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,61,189,51,1,0 // movaps 0x133bd(%rip),%xmm7 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 27b32 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 284de <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27b1b <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 284c7 <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 27acc <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 28478 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38728,10 +39218,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 27acc <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 28478 <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 27acc <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 28478 <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -38784,9 +39274,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,89,49,1,0 // mulps 0x13159(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 15,89,5,173,52,1,0 // mulps 0x134ad(%rip),%xmm0 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,64,47,1,0 // movaps 0x12f40(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,148,50,1,0 // movaps 0x13294(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38803,42 +39293,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 27c86 <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 28632 <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,43,49,1,0 // movdqa 0x1312b(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,5,127,52,1,0 // movdqa 0x1347f(%rip),%xmm0 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,45,49,1,0 // mulps 0x1312d(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,13,53,49,1,0 // movdqa 0x13135(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 15,89,5,129,52,1,0 // mulps 0x13481(%rip),%xmm0 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,13,137,52,1,0 // movdqa 0x13489(%rip),%xmm1 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,55,49,1,0 // mulps 0x13137(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,15,219,21,63,49,1,0 // pand 0x1313f(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 15,89,13,139,52,1,0 // mulps 0x1348b(%rip),%xmm1 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,15,219,21,147,52,1,0 // pand 0x13493(%rip),%xmm2 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,69,49,1,0 // mulps 0x13145(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,21,153,52,1,0 // mulps 0x13499(%rip),%xmm2 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,204,46,1,0 // movaps 0x12ecc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,32,50,1,0 // movaps 0x13220(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 27cc6 <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 28672 <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27cb2 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 2865e <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 27c3d <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 285e9 <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 285e9 <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 285e9 <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -38852,42 +39342,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 27d42 <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 286ee <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,111,48,1,0 // movdqa 0x1306f(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,37,195,51,1,0 // movdqa 0x133c3(%rip),%xmm4 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,113,48,1,0 // mulps 0x13071(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,45,121,48,1,0 // movdqa 0x13079(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 15,89,37,197,51,1,0 // mulps 0x133c5(%rip),%xmm4 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,45,205,51,1,0 // movdqa 0x133cd(%rip),%xmm5 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,123,48,1,0 // mulps 0x1307b(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,15,219,53,131,48,1,0 // pand 0x13083(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 15,89,45,207,51,1,0 // mulps 0x133cf(%rip),%xmm5 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,15,219,53,215,51,1,0 // pand 0x133d7(%rip),%xmm6 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,137,48,1,0 // mulps 0x13089(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,53,221,51,1,0 // mulps 0x133dd(%rip),%xmm6 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,16,46,1,0 // movaps 0x12e10(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,61,100,49,1,0 // movaps 0x13164(%rip),%xmm7 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 27d82 <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 2872e <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27d6e <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 2871a <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 27cf9 <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 286a5 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 286a5 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 286a5 <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -38936,19 +39426,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,30,47,1,0 // movdqa 0x12f1e(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
+ .byte 102,15,111,5,114,50,1,0 // movdqa 0x13272(%rip),%xmm0 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,32,47,1,0 // mulps 0x12f20(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- .byte 102,15,111,13,40,47,1,0 // movdqa 0x12f28(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
+ .byte 15,89,5,116,50,1,0 // mulps 0x13274(%rip),%xmm0 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,13,124,50,1,0 // movdqa 0x1327c(%rip),%xmm1 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,42,47,1,0 // mulps 0x12f2a(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- .byte 102,15,219,21,50,47,1,0 // pand 0x12f32(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
+ .byte 15,89,13,126,50,1,0 // mulps 0x1327e(%rip),%xmm1 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
+ .byte 102,15,219,21,134,50,1,0 // pand 0x13286(%rip),%xmm2 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,56,47,1,0 // mulps 0x12f38(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
+ .byte 15,89,21,140,50,1,0 // mulps 0x1328c(%rip),%xmm2 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,191,44,1,0 // movaps 0x12cbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,19,48,1,0 // movaps 0x13013(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -38965,16 +39455,16 @@ _sk_store_565_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,147,44,1,0 // movaps 0x12c93(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,231,47,1,0 // movaps 0x12fe7(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,167,48,1,0 // movaps 0x130a7(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
+ .byte 68,15,40,29,251,51,1,0 // movaps 0x133fb(%rip),%xmm11 # 3bc70 <_sk_srcover_bgra_8888_sse2_lowp+0x10d4>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
.byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,148,48,1,0 // mulps 0x13094(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
+ .byte 68,15,89,37,232,51,1,0 // mulps 0x133e8(%rip),%xmm12 # 3bc80 <_sk_srcover_bgra_8888_sse2_lowp+0x10e4>
.byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
.byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
.byte 68,15,95,194 // maxps %xmm2,%xmm8
@@ -38987,7 +39477,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 27f32 <_sk_store_565_sse2+0x9f>
+ .byte 117,10 // jne 288de <_sk_store_565_sse2+0x9f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38995,19 +39485,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 27f6a <_sk_store_565_sse2+0xd7>
+ .byte 116,38 // je 28916 <_sk_store_565_sse2+0xd7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 27f5c <_sk_store_565_sse2+0xc9>
+ .byte 116,18 // je 28908 <_sk_store_565_sse2+0xc9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 27f2e <_sk_store_565_sse2+0x9b>
+ .byte 117,222 // jne 288da <_sk_store_565_sse2+0x9b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 27f2e <_sk_store_565_sse2+0x9b>
+ .byte 235,196 // jmp 288da <_sk_store_565_sse2+0x9b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 27f2e <_sk_store_565_sse2+0x9b>
+ .byte 235,184 // jmp 288da <_sk_store_565_sse2+0x9b>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -39021,45 +39511,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 27ff3 <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 2899f <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,237,47,1,0 // movdqa 0x12fed(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 102,15,111,5,65,51,1,0 // movdqa 0x13341(%rip),%xmm0 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,239,47,1,0 // mulps 0x12fef(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- .byte 102,15,111,13,247,47,1,0 // movdqa 0x12ff7(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 15,89,5,67,51,1,0 // mulps 0x13343(%rip),%xmm0 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
+ .byte 102,15,111,13,75,51,1,0 // movdqa 0x1334b(%rip),%xmm1 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,249,47,1,0 // mulps 0x12ff9(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- .byte 102,15,111,21,1,48,1,0 // movdqa 0x13001(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 15,89,13,77,51,1,0 // mulps 0x1334d(%rip),%xmm1 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
+ .byte 102,15,111,21,85,51,1,0 // movdqa 0x13355(%rip),%xmm2 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,3,48,1,0 // mulps 0x13003(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- .byte 102,15,219,29,11,48,1,0 // pand 0x1300b(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 15,89,21,87,51,1,0 // mulps 0x13357(%rip),%xmm2 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
+ .byte 102,15,219,29,95,51,1,0 // pand 0x1335f(%rip),%xmm3 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,17,48,1,0 // mulps 0x13011(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,29,101,51,1,0 // mulps 0x13365(%rip),%xmm3 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 28033 <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 289df <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 2801f <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 289cb <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 27f9b <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 28947 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 28947 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 28947 <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -39073,45 +39563,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 280be <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 28a6a <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,34,47,1,0 // movdqa 0x12f22(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 102,15,111,37,118,50,1,0 // movdqa 0x13276(%rip),%xmm4 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,36,47,1,0 // mulps 0x12f24(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- .byte 102,15,111,45,44,47,1,0 // movdqa 0x12f2c(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 15,89,37,120,50,1,0 // mulps 0x13278(%rip),%xmm4 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
+ .byte 102,15,111,45,128,50,1,0 // movdqa 0x13280(%rip),%xmm5 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,46,47,1,0 // mulps 0x12f2e(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- .byte 102,15,111,53,54,47,1,0 // movdqa 0x12f36(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 15,89,45,130,50,1,0 // mulps 0x13282(%rip),%xmm5 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
+ .byte 102,15,111,53,138,50,1,0 // movdqa 0x1328a(%rip),%xmm6 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,56,47,1,0 // mulps 0x12f38(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- .byte 102,15,219,61,64,47,1,0 // pand 0x12f40(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 15,89,53,140,50,1,0 // mulps 0x1328c(%rip),%xmm6 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
+ .byte 102,15,219,61,148,50,1,0 // pand 0x13294(%rip),%xmm7 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,70,47,1,0 // mulps 0x12f46(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,61,154,50,1,0 // mulps 0x1329a(%rip),%xmm7 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 280fe <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 28aaa <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 280ea <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 28a96 <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 28066 <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 28a12 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 28a12 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 28a12 <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -39160,21 +39650,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,194,45,1,0 // movdqa 0x12dc2(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
+ .byte 102,15,111,5,22,49,1,0 // movdqa 0x13116(%rip),%xmm0 # 3bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,196,45,1,0 // mulps 0x12dc4(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- .byte 102,15,111,13,204,45,1,0 // movdqa 0x12dcc(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
+ .byte 15,89,5,24,49,1,0 // mulps 0x13118(%rip),%xmm0 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
+ .byte 102,15,111,13,32,49,1,0 // movdqa 0x13120(%rip),%xmm1 # 3bcb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,206,45,1,0 // mulps 0x12dce(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- .byte 102,15,111,21,214,45,1,0 // movdqa 0x12dd6(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
+ .byte 15,89,13,34,49,1,0 // mulps 0x13122(%rip),%xmm1 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
+ .byte 102,15,111,21,42,49,1,0 // movdqa 0x1312a(%rip),%xmm2 # 3bcd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,216,45,1,0 // mulps 0x12dd8(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- .byte 102,15,219,29,224,45,1,0 // pand 0x12de0(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
+ .byte 15,89,21,44,49,1,0 // mulps 0x1312c(%rip),%xmm2 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
+ .byte 102,15,219,29,52,49,1,0 // pand 0x13134(%rip),%xmm3 # 3bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,230,45,1,0 // mulps 0x12de6(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
+ .byte 15,89,29,58,49,1,0 // mulps 0x1313a(%rip),%xmm3 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39192,9 +39682,9 @@ _sk_store_4444_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,8,41,1,0 // movaps 0x12908(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,92,44,1,0 // movaps 0x12c5c(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,188,45,1,0 // movaps 0x12dbc(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 68,15,40,29,16,49,1,0 // movaps 0x13110(%rip),%xmm11 # 3bd10 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
@@ -39221,7 +39711,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 282da <_sk_store_4444_sse2+0xbc>
+ .byte 117,10 // jne 28c86 <_sk_store_4444_sse2+0xbc>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39229,19 +39719,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 28312 <_sk_store_4444_sse2+0xf4>
+ .byte 116,38 // je 28cbe <_sk_store_4444_sse2+0xf4>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 28304 <_sk_store_4444_sse2+0xe6>
+ .byte 116,18 // je 28cb0 <_sk_store_4444_sse2+0xe6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 282d6 <_sk_store_4444_sse2+0xb8>
+ .byte 117,222 // jne 28c82 <_sk_store_4444_sse2+0xb8>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 282d6 <_sk_store_4444_sse2+0xb8>
+ .byte 235,196 // jmp 28c82 <_sk_store_4444_sse2+0xb8>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 282d6 <_sk_store_4444_sse2+0xb8>
+ .byte 235,184 // jmp 28c82 <_sk_store_4444_sse2+0xb8>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -39255,13 +39745,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2839c <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 28d48 <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,184,40,1,0 // movdqa 0x128b8(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,21,12,44,1,0 // movdqa 0x12c0c(%rip),%xmm2 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,4,42,1,0 // movaps 0x12a04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,88,45,1,0 // movaps 0x12d58(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39281,18 +39771,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 283d2 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 28d7e <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 283c7 <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 28d73 <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 28340 <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 28cec <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 28cec <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 28cec <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -39306,13 +39796,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2845b <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 28e07 <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,249,39,1,0 // movdqa 0x127f9(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,53,77,43,1,0 // movdqa 0x12b4d(%rip),%xmm6 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,69,41,1,0 // movaps 0x12945(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,153,44,1,0 // movaps 0x12c99(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39332,18 +39822,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 28491 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 28e3d <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 28486 <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 28e32 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 283ff <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 28dab <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 28dab <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 28dab <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -39389,11 +39879,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,172,38,1,0 // movdqa 0x126ac(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,21,0,42,1,0 // movdqa 0x12a00(%rip),%xmm2 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,248,39,1,0 // movaps 0x127f8(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,76,43,1,0 // movaps 0x12b4c(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39425,9 +39915,9 @@ _sk_store_8888_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,125,37,1,0 // movaps 0x1257d(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,209,40,1,0 // movaps 0x128d1(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,81,38,1,0 // movaps 0x12651(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,29,165,41,1,0 // movaps 0x129a5(%rip),%xmm11 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -39451,24 +39941,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 28654 <_sk_store_8888_sse2+0xac>
+ .byte 117,10 // jne 29000 <_sk_store_8888_sse2+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 28682 <_sk_store_8888_sse2+0xda>
+ .byte 116,33 // je 2902e <_sk_store_8888_sse2+0xda>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 2867a <_sk_store_8888_sse2+0xd2>
+ .byte 116,19 // je 29026 <_sk_store_8888_sse2+0xd2>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 28650 <_sk_store_8888_sse2+0xa8>
+ .byte 117,227 // jne 28ffc <_sk_store_8888_sse2+0xa8>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 28650 <_sk_store_8888_sse2+0xa8>
+ .byte 235,206 // jmp 28ffc <_sk_store_8888_sse2+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 28650 <_sk_store_8888_sse2+0xa8>
+ .byte 235,198 // jmp 28ffc <_sk_store_8888_sse2+0xa8>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -39482,13 +39972,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 28708 <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 290b4 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,76,37,1,0 // movdqa 0x1254c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,5,160,40,1,0 // movdqa 0x128a0(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,152,38,1,0 // movaps 0x12698(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,236,41,1,0 // movaps 0x129ec(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39508,18 +39998,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 2873e <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 290ea <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 28733 <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 290df <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 286ac <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 29058 <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 29058 <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 29058 <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -39533,13 +40023,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 287c7 <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 29173 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,141,36,1,0 // movdqa 0x1248d(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,37,225,39,1,0 // movdqa 0x127e1(%rip),%xmm4 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,217,37,1,0 // movaps 0x125d9(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,45,41,1,0 // movaps 0x1292d(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39559,18 +40049,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 287fd <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 291a9 <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 287f2 <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 2919e <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 2876b <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 29117 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 29117 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 29117 <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -39616,11 +40106,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,64,35,1,0 // movdqa 0x12340(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,5,148,38,1,0 // movdqa 0x12694(%rip),%xmm0 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,140,36,1,0 // movaps 0x1248c(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 68,15,40,5,224,39,1,0 // movaps 0x127e0(%rip),%xmm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39652,9 +40142,9 @@ _sk_store_bgra_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,17,34,1,0 // movaps 0x12211(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,101,37,1,0 // movaps 0x12565(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,229,34,1,0 // movaps 0x122e5(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,29,57,38,1,0 // movaps 0x12639(%rip),%xmm11 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -39678,24 +40168,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 289c0 <_sk_store_bgra_sse2+0xac>
+ .byte 117,10 // jne 2936c <_sk_store_bgra_sse2+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 289ee <_sk_store_bgra_sse2+0xda>
+ .byte 116,33 // je 2939a <_sk_store_bgra_sse2+0xda>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 289e6 <_sk_store_bgra_sse2+0xd2>
+ .byte 116,19 // je 29392 <_sk_store_bgra_sse2+0xd2>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 289bc <_sk_store_bgra_sse2+0xa8>
+ .byte 117,227 // jne 29368 <_sk_store_bgra_sse2+0xa8>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 289bc <_sk_store_bgra_sse2+0xa8>
+ .byte 235,206 // jmp 29368 <_sk_store_bgra_sse2+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 289bc <_sk_store_bgra_sse2+0xa8>
+ .byte 235,198 // jmp 29368 <_sk_store_bgra_sse2+0xa8>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -39709,7 +40199,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 28b45 <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 294f1 <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -39721,18 +40211,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,202,37,1,0 // movdqa 0x125ca(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 102,68,15,111,13,30,41,1,0 // movdqa 0x1291e(%rip),%xmm9 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,199,37,1,0 // movdqa 0x125c7(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,29,27,41,1,0 // movdqa 0x1291b(%rip),%xmm11 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,202,37,1,0 // movdqa 0x125ca(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,15,111,29,30,41,1,0 // movdqa 0x1291e(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,185,37,1,0 // movdqa 0x125b9(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,68,15,111,37,13,41,1,0 // movdqa 0x1290d(%rip),%xmm12 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -39771,16 +40261,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 28b5e <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 2950a <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 293cf <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 28a23 <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 293cf <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 293cf <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -39794,7 +40284,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 28cce <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 2967a <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -39806,18 +40296,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,65,36,1,0 // movdqa 0x12441(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 102,68,15,111,13,149,39,1,0 // movdqa 0x12795(%rip),%xmm9 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,62,36,1,0 // movdqa 0x1243e(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,29,146,39,1,0 // movdqa 0x12792(%rip),%xmm11 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,65,36,1,0 // movdqa 0x12441(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,15,111,61,149,39,1,0 // movdqa 0x12795(%rip),%xmm7 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,48,36,1,0 // movdqa 0x12430(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,68,15,111,37,132,39,1,0 // movdqa 0x12784(%rip),%xmm12 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -39856,16 +40346,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 28ce7 <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 29693 <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 29558 <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 28bac <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 29558 <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 29558 <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -39919,18 +40409,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,63,34,1,0 // movdqa 0x1223f(%rip),%xmm10 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
+ .byte 102,68,15,111,21,147,37,1,0 // movdqa 0x12593(%rip),%xmm10 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,60,34,1,0 // movdqa 0x1223c(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
+ .byte 102,68,15,111,29,144,37,1,0 // movdqa 0x12590(%rip),%xmm11 # 3bd30 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,63,34,1,0 // movdqa 0x1223f(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
+ .byte 102,15,111,29,147,37,1,0 // movdqa 0x12593(%rip),%xmm3 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,46,34,1,0 // movdqa 0x1222e(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
+ .byte 102,68,15,111,37,130,37,1,0 // movdqa 0x12582(%rip),%xmm12 # 3bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -39973,19 +40463,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,130,33,1,0 // movdqa 0x12182(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 102,68,15,111,29,214,36,1,0 // movdqa 0x124d6(%rip),%xmm11 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,127,33,1,0 // movdqa 0x1217f(%rip),%xmm10 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 102,68,15,111,21,211,36,1,0 // movdqa 0x124d3(%rip),%xmm10 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,125,33,1,0 // movdqa 0x1217d(%rip),%xmm7 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
- .byte 102,68,15,111,37,36,35,1,0 // movdqa 0x12324(%rip),%xmm12 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
+ .byte 102,15,111,61,209,36,1,0 // movdqa 0x124d1(%rip),%xmm7 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,111,37,120,38,1,0 // movdqa 0x12678(%rip),%xmm12 # 3bf30 <_sk_srcover_bgra_8888_sse2_lowp+0x1394>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,214,29,1,0 // movdqa 0x11dd6(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
+ .byte 102,68,15,111,45,42,33,1,0 // movdqa 0x1212a(%rip),%xmm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -40041,7 +40531,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 2905c <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 29a08 <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -40054,13 +40544,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 29053 <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 299ff <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 29053 <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 299ff <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 29053 <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 299ff <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -40075,7 +40565,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 29172 <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 29b1e <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -40092,7 +40582,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,235,28,1,0 // movaps 0x11ceb(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 68,15,40,5,63,32,1,0 // movaps 0x1203f(%rip),%xmm8 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40120,16 +40610,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2918b <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 29b37 <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 29a6d <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 290c1 <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 29a6d <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 29a6d <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -40146,7 +40636,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 29286 <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 29c32 <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -40167,7 +40657,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,181,27,1,0 // movaps 0x11bb5(%rip),%xmm9 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
+ .byte 68,15,40,13,9,31,1,0 // movaps 0x11f09(%rip),%xmm9 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40184,27 +40674,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,204,24,1,0 // movaps 0x118cc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,32,28,1,0 // movaps 0x11c20(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 292ab <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 29c57 <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 29ba7 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 292dc <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 29c88 <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 29ba7 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 29ba7 <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -40221,9 +40711,9 @@ _sk_store_u16_be_sse2:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,57,24,1,0 // movaps 0x11839(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,141,27,1,0 // movaps 0x11b8d(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,125,29,1,0 // movaps 0x11d7d(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
+ .byte 68,15,40,29,209,32,1,0 // movaps 0x120d1(%rip),%xmm11 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -40273,7 +40763,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 29433 <_sk_store_u16_be_sse2+0x14e>
+ .byte 117,21 // jne 29ddf <_sk_store_u16_be_sse2+0x14e>
.byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2)
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -40281,13 +40771,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 2942f <_sk_store_u16_be_sse2+0x14a>
+ .byte 116,240 // je 29ddb <_sk_store_u16_be_sse2+0x14a>
.byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 2942f <_sk_store_u16_be_sse2+0x14a>
+ .byte 114,227 // jb 29ddb <_sk_store_u16_be_sse2+0x14a>
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 2942f <_sk_store_u16_be_sse2+0x14a>
+ .byte 235,213 // jmp 29ddb <_sk_store_u16_be_sse2+0x14a>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -40303,7 +40793,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 294c5 <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 29e71 <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -40323,17 +40813,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 294d7 <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 29e83 <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 29495 <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 29e41 <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 294eb <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 29e97 <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 29495 <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 29e41 <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 29495 <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 29e41 <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -40349,7 +40839,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 2955b <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 29f07 <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -40369,17 +40859,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 2956d <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 29f19 <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 29ed7 <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 29581 <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 29f2d <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 29ed7 <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 29ed7 <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -40408,7 +40898,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 29603 <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 29faf <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -40416,12 +40906,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 295ff <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 29fab <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 295ff <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 29fab <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 295ff <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 29fab <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -40435,7 +40925,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,6,21,1,0 // andps 0x11506(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,84,13,90,24,1,0 // andps 0x1185a(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -40455,7 +40945,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,197,20,1,0 // andps 0x114c5(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,84,13,25,24,1,0 // andps 0x11819(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -40475,13 +40965,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,71,11,1,0 // mulss 0x10b47(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,207,13,1,0 // mulss 0x10dcf(%rip),%xmm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,100,20,1,0 // andps 0x11464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,84,13,184,23,1,0 // andps 0x117b8(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -40504,13 +40994,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,219,10,1,0 // mulss 0x10adb(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,99,13,1,0 // mulss 0x10d63(%rip),%xmm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,248,19,1,0 // andps 0x113f8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,84,13,76,23,1,0 // andps 0x1174c(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -40527,7 +41017,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,200,19,1,0 // minps 0x113c8(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,93,5,28,23,1,0 // minps 0x1171c(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -40540,7 +41030,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,166,19,1,0 // movaps 0x113a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,29,250,22,1,0 // movaps 0x116fa(%rip),%xmm11 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,211 // andps %xmm11,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -40555,14 +41045,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,222,19,1,0 // movaps 0x113de(%rip),%xmm9 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,40,13,50,23,1,0 // movaps 0x11732(%rip),%xmm9 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
.byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,98,19,1,0 // movaps 0x11362(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,21,182,22,1,0 // movaps 0x116b6(%rip),%xmm10 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,89,208 // mulps %xmm0,%xmm10
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,88,19,1,0 // movaps 0x11358(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,172,22,1,0 // movaps 0x116ac(%rip),%xmm12 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
@@ -40583,10 +41073,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,122,24,1,0 // mulps 0x1187a(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- .byte 15,89,13,131,24,1,0 // mulps 0x11883(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
+ .byte 15,89,5,206,27,1,0 // mulps 0x11bce(%rip),%xmm0 # 3bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
+ .byte 15,89,13,215,27,1,0 // mulps 0x11bd7(%rip),%xmm1 # 3bdc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,137,24,1,0 // mulps 0x11889(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
+ .byte 15,89,29,221,27,1,0 // mulps 0x11bdd(%rip),%xmm3 # 3bdd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1234>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -40898,9 +41388,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 29ce7 <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 2a693 <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 29cfc <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 2a6a8 <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -41002,7 +41492,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 29ec0 <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 2a86c <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -41013,7 +41503,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 29ea6 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 2a852 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -41153,29 +41643,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,229,15,1,0 // movaps 0x10fe5(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
+ .byte 68,15,40,45,57,19,1,0 // movaps 0x11339(%rip),%xmm13 # 3bde0 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,233,15,1,0 // addps 0x10fe9(%rip),%xmm13 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,88,45,61,19,1,0 // addps 0x1133d(%rip),%xmm13 # 3bdf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,237,15,1,0 // addps 0x10fed(%rip),%xmm13 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,88,45,65,19,1,0 // addps 0x11341(%rip),%xmm13 # 3be00 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,241,15,1,0 // addps 0x10ff1(%rip),%xmm13 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 68,15,88,45,69,19,1,0 // addps 0x11345(%rip),%xmm13 # 3be10 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,240,15,1,0 // movaps 0x10ff0(%rip),%xmm10 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 68,15,40,21,68,19,1,0 // movaps 0x11344(%rip),%xmm10 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,243,9,1,0 // movaps 0x109f3(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,21,71,13,1,0 // movaps 0x10d47(%rip),%xmm10 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,226,9,1,0 // movaps 0x109e2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,21,54,13,1,0 // movaps 0x10d36(%rip),%xmm10 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -41211,7 +41701,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,86,15,1,0 // mulps 0x10f56(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,89,13,170,18,1,0 // mulps 0x112aa(%rip),%xmm9 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41219,7 +41709,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,64,15,1,0 // mulps 0x10f40(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,21,148,18,1,0 // mulps 0x11294(%rip),%xmm10 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -41227,7 +41717,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,29,9,1,0 // mulps 0x1091d(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,89,5,113,12,1,0 // mulps 0x10c71(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41246,7 +41736,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,205,14,1,0 // mulps 0x10ecd(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,89,13,33,18,1,0 // mulps 0x11221(%rip),%xmm9 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41254,16 +41744,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,183,14,1,0 // mulps 0x10eb7(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
+ .byte 68,15,89,21,11,18,1,0 // mulps 0x1120b(%rip),%xmm10 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,183,13,1,0 // xorps 0x10db7(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 68,15,87,13,11,17,1,0 // xorps 0x1110b(%rip),%xmm9 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,140,8,1,0 // mulps 0x1088c(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,89,5,224,11,1,0 // mulps 0x10be0(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41278,7 +41768,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,80,14,1,0 // mulps 0x10e50(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
+ .byte 68,15,89,13,164,17,1,0 // mulps 0x111a4(%rip),%xmm9 # 3be30 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -41286,7 +41776,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,92,13,1,0 // xorps 0x10d5c(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
+ .byte 15,87,5,176,16,1,0 // xorps 0x110b0(%rip),%xmm0 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41332,7 +41822,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,195,7,1,0 // movaps 0x107c3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,5,23,11,1,0 // movaps 0x10b17(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -41340,7 +41830,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,174,7,1,0 // movaps 0x107ae(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,2,11,1,0 // movaps 0x10b02(%rip),%xmm12 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -41387,8 +41877,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,14,13,1,0 // addps 0x10d0e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,6,7,1,0 // movaps 0x10706(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,98,16,1,0 // addps 0x11062(%rip),%xmm0 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,90,10,1,0 // movaps 0x10a5a(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41401,7 +41891,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,210,6,1,0 // addps 0x106d2(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,5,38,10,1,0 // addps 0x10a26(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41413,8 +41903,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,193,12,1,0 // addps 0x10cc1(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,185,6,1,0 // movaps 0x106b9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,21,16,1,0 // addps 0x11015(%rip),%xmm1 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,13,10,1,0 // movaps 0x10a0d(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41427,7 +41917,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,132,6,1,0 // addps 0x10684(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,13,216,9,1,0 // addps 0x109d8(%rip),%xmm1 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41439,13 +41929,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,132,12,1,0 // addps 0x10c84(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,108,6,1,0 // movaps 0x1066c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,216,15,1,0 // addps 0x10fd8(%rip),%xmm0 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,13,192,9,1,0 // movaps 0x109c0(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,120,12,1,0 // mulps 0x10c78(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,13,80,8,1,0 // addps 0x10850(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,13,204,15,1,0 // mulps 0x10fcc(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,13,164,11,1,0 // addps 0x10ba4(%rip),%xmm9 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41458,16 +41948,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,44,12,1,0 // addps 0x10c2c(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,36,6,1,0 // movaps 0x10624(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,5,128,15,1,0 // addps 0x10f80(%rip),%xmm0 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,120,9,1,0 // movaps 0x10978(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,72,12,1,0 // movaps 0x10c48(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,5,156,15,1,0 // movaps 0x10f9c(%rip),%xmm8 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,76,12,1,0 // addps 0x10c4c(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,5,160,15,1,0 // addps 0x10fa0(%rip),%xmm8 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,240,5,1,0 // addps 0x105f0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,5,68,9,1,0 // addps 0x10944(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,68,12,1,0 // addps 0x10c44(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,152,15,1,0 // addps 0x10f98(%rip),%xmm8 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41477,17 +41967,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,206,5,1,0 // movaps 0x105ce(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,5,34,9,1,0 // movaps 0x10922(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,247,11,1,0 // movaps 0x10bf7(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,21,75,15,1,0 // movaps 0x10f4b(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,251,11,1,0 // addps 0x10bfb(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,21,79,15,1,0 // addps 0x10f4f(%rip),%xmm10 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,247,11,1,0 // addps 0x10bf7(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,75,15,1,0 // addps 0x10f4b(%rip),%xmm10 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41499,11 +41989,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,199,11,1,0 // addps 0x10bc7(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 15,88,5,27,15,1,0 // addps 0x10f1b(%rip),%xmm0 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,151,11,1,0 // mulps 0x10b97(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,5,111,7,1,0 // addps 0x1076f(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,5,235,14,1,0 // mulps 0x10eeb(%rip),%xmm8 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,195,10,1,0 // addps 0x10ac3(%rip),%xmm8 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41516,13 +42006,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,90,11,1,0 // addps 0x10b5a(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- .byte 68,15,40,13,66,5,1,0 // movaps 0x10542(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,174,14,1,0 // addps 0x10eae(%rip),%xmm1 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,13,150,8,1,0 // movaps 0x10896(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,78,11,1,0 // mulps 0x10b4e(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,13,38,7,1,0 // addps 0x10726(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,13,162,14,1,0 // mulps 0x10ea2(%rip),%xmm9 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,13,122,10,1,0 // addps 0x10a7a(%rip),%xmm9 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41535,16 +42025,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,1,11,1,0 // addps 0x10b01(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- .byte 68,15,40,13,249,4,1,0 // movaps 0x104f9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,88,13,85,14,1,0 // addps 0x10e55(%rip),%xmm1 # 3be50 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
+ .byte 68,15,40,13,77,8,1,0 // movaps 0x1084d(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,29,11,1,0 // movaps 0x10b1d(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,5,113,14,1,0 // movaps 0x10e71(%rip),%xmm8 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,33,11,1,0 // addps 0x10b21(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,5,117,14,1,0 // addps 0x10e75(%rip),%xmm8 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,197,4,1,0 // addps 0x104c5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,5,25,8,1,0 // addps 0x10819(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,25,11,1,0 // addps 0x10b19(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,5,109,14,1,0 // addps 0x10e6d(%rip),%xmm8 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41554,17 +42044,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,163,4,1,0 // movaps 0x104a3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,5,247,7,1,0 // movaps 0x107f7(%rip),%xmm8 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,203,10,1,0 // movaps 0x10acb(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
+ .byte 68,15,40,21,31,14,1,0 // movaps 0x10e1f(%rip),%xmm10 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,207,10,1,0 // addps 0x10acf(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 68,15,88,21,35,14,1,0 // addps 0x10e23(%rip),%xmm10 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,203,10,1,0 // addps 0x10acb(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
+ .byte 68,15,88,21,31,14,1,0 // addps 0x10e1f(%rip),%xmm10 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41576,11 +42066,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,154,10,1,0 // addps 0x10a9a(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
+ .byte 15,88,13,238,13,1,0 // addps 0x10dee(%rip),%xmm1 # 3be90 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,106,10,1,0 // mulps 0x10a6a(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- .byte 68,15,88,5,66,6,1,0 // addps 0x10642(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
+ .byte 68,15,89,5,190,13,1,0 // mulps 0x10dbe(%rip),%xmm8 # 3be70 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,150,9,1,0 // addps 0x10996(%rip),%xmm8 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41725,7 +42215,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,177,8,1,0 // movdqa 0x108b1(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,68,15,111,5,5,12,1,0 // movdqa 0x10c05(%rip),%xmm8 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -41764,7 +42254,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,184,1,1,0 // movdqa 0x101b8(%rip),%xmm12 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,37,12,5,1,0 // movdqa 0x1050c(%rip),%xmm12 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -41780,7 +42270,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,157,7,1,0 // movaps 0x1079d(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 15,40,37,241,10,1,0 // movaps 0x10af1(%rip),%xmm4 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -41816,7 +42306,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,18,7,1,0 // psubd 0x10712(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,13,102,10,1,0 // psubd 0x10a66(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -41906,7 +42396,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,42,255,0,0 // movdqa 0xff2a(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,45,126,2,1,0 // movdqa 0x1027e(%rip),%xmm13 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -42003,7 +42493,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,173,3,1,0 // movdqa 0x103ad(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,29,1,7,1,0 // movdqa 0x10701(%rip),%xmm3 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -42041,7 +42531,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,189,252,0,0 // movdqa 0xfcbd(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,111,5,17,0,1,0 // movdqa 0x10011(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42122,7 +42612,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,138,1,1,0 // movdqa 0x1018a(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,13,222,4,1,0 // movdqa 0x104de(%rip),%xmm1 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -42144,7 +42634,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,47,1,1,0 // psubd 0x1012f(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,13,131,4,1,0 // psubd 0x10483(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42159,7 +42649,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,154,250,0,0 // paddd 0xfa9a(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,5,238,253,0,0 // paddd 0xfdee(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42196,7 +42686,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,57,0,1,0 // psubd 0x10039(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,13,141,3,1,0 // psubd 0x1038d(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42211,7 +42701,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,164,249,0,0 // paddd 0xf9a4(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,21,248,252,0,0 // paddd 0xfcf8(%rip),%xmm2 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42357,7 +42847,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,124,253,0,0 // movdqa 0xfd7c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,37,208,0,1,0 // movdqa 0x100d0(%rip),%xmm4 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -42396,7 +42886,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,134,246,0,0 // paddd 0xf686(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,5,218,249,0,0 // paddd 0xf9da(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -42411,7 +42901,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,112,252,0,0 // movaps 0xfc70(%rip),%xmm6 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
+ .byte 15,40,53,196,255,0,0 // movaps 0xffc4(%rip),%xmm6 # 3beb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -42429,7 +42919,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,38,252,0,0 // movdqa 0xfc26(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,13,122,255,0,0 // movdqa 0xff7a(%rip),%xmm1 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -42450,7 +42940,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,209,251,0,0 // psubd 0xfbd1(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,5,37,255,0,0 // psubd 0xff25(%rip),%xmm0 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42465,7 +42955,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,57,245,0,0 // paddd 0xf539(%rip),%xmm1 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,13,141,248,0,0 // paddd 0xf88d(%rip),%xmm1 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42503,7 +42993,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,208,250,0,0 // movdqa 0xfad0(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,37,36,254,0,0 // movdqa 0xfe24(%rip),%xmm4 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -42541,7 +43031,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,220,243,0,0 // movdqa 0xf3dc(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,5,48,247,0,0 // movdqa 0xf730(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -42687,7 +43177,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,54,241,0,0 // movdqa 0xf136(%rip),%xmm15 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,61,138,244,0,0 // movdqa 0xf48a(%rip),%xmm15 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -42770,7 +43260,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,5,246,0,0 // movdqa 0xf605(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,45,89,249,0,0 // movdqa 0xf959(%rip),%xmm5 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -42791,7 +43281,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,174,245,0,0 // psubd 0xf5ae(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,45,2,249,0,0 // psubd 0xf902(%rip),%xmm5 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42823,7 +43313,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,12,245,0,0 // movdqa 0xf50c(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,29,96,248,0,0 // movdqa 0xf860(%rip),%xmm3 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -42844,7 +43334,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,172,244,0,0 // psubd 0xf4ac(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,45,0,248,0,0 // psubd 0xf800(%rip),%xmm5 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42859,7 +43349,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,22,238,0,0 // movdqa 0xee16(%rip),%xmm9 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,13,106,241,0,0 // movdqa 0xf16a(%rip),%xmm9 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -42921,7 +43411,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,71,243,0,0 // movdqa 0xf347(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,21,155,246,0,0 // movdqa 0xf69b(%rip),%xmm2 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -43114,7 +43604,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,227,239,0,0 // psubd 0xefe3(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,21,55,243,0,0 // psubd 0xf337(%rip),%xmm2 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43174,7 +43664,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,194,238,0,0 // movdqa 0xeec2(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,68,15,111,5,22,242,0,0 // movdqa 0xf216(%rip),%xmm8 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -43212,7 +43702,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,208,231,0,0 // movdqa 0xe7d0(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,68,15,111,5,36,235,0,0 // movdqa 0xeb24(%rip),%xmm8 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43295,7 +43785,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,156,236,0,0 // movdqa 0xec9c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
+ .byte 102,15,111,37,240,239,0,0 // movdqa 0xeff0(%rip),%xmm4 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -43316,7 +43806,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,69,236,0,0 // psubd 0xec45(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,13,153,239,0,0 // psubd 0xef99(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43331,7 +43821,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,174,229,0,0 // paddd 0xe5ae(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,5,2,233,0,0 // paddd 0xe902(%rip),%xmm0 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -43369,7 +43859,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,77,235,0,0 // psubd 0xeb4d(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
+ .byte 102,15,250,13,161,238,0,0 // psubd 0xeea1(%rip),%xmm1 # 3bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43384,7 +43874,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,184,228,0,0 // paddd 0xe4b8(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
+ .byte 102,15,254,21,12,232,0,0 // paddd 0xe80c(%rip),%xmm2 # 3b880 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43443,7 +43933,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,164,227,0,0 // movaps 0xe3a4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,29,248,230,0,0 // movaps 0xe6f8(%rip),%xmm3 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -43456,21 +43946,174 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,9,234,0,0 // movaps 0xea09(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
+ .byte 15,40,5,93,237,0,0 // movaps 0xed5d(%rip),%xmm0 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,15,234,0,0 // addps 0xea0f(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
+ .byte 15,88,5,99,237,0,0 // addps 0xed63(%rip),%xmm0 # 3bef0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,21,234,0,0 // addps 0xea15(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
+ .byte 15,88,5,105,237,0,0 // addps 0xed69(%rip),%xmm0 # 3bf00 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,27,234,0,0 // addps 0xea1b(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
+ .byte 15,88,5,111,237,0,0 // addps 0xed6f(%rip),%xmm0 # 3bf10 <_sk_srcover_bgra_8888_sse2_lowp+0x1374>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,33,234,0,0 // addps 0xea21(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
+ .byte 15,88,5,117,237,0,0 // addps 0xed75(%rip),%xmm0 # 3bf20 <_sk_srcover_bgra_8888_sse2_lowp+0x1384>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_bilerp_clamp_8888_sse2
+.globl _sk_bilerp_clamp_8888_sse2
+FUNCTION(_sk_bilerp_clamp_8888_sse2)
+_sk_bilerp_clamp_8888_sse2:
+ .byte 72,131,236,88 // sub $0x58,%rsp
+ .byte 15,41,124,36,176 // movaps %xmm7,-0x50(%rsp)
+ .byte 15,41,116,36,160 // movaps %xmm6,-0x60(%rsp)
+ .byte 15,41,108,36,144 // movaps %xmm5,-0x70(%rsp)
+ .byte 15,41,100,36,128 // movaps %xmm4,-0x80(%rsp)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,37,103,230,0,0 // movaps 0xe667(%rip),%xmm4 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,41,68,36,64 // movaps %xmm0,0x40(%rsp)
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,88,236 // addps %xmm4,%xmm5
+ .byte 243,15,91,197 // cvttps2dq %xmm5,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
+ .byte 15,40,53,87,230,0,0 // movaps 0xe657(%rip),%xmm6 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,84,214 // andps %xmm6,%xmm2
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,92,232 // subps %xmm0,%xmm5
+ .byte 15,41,12,36 // movaps %xmm1,(%rsp)
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 15,194,209,1 // cmpltps %xmm1,%xmm2
+ .byte 15,84,214 // andps %xmm6,%xmm2
+ .byte 15,92,202 // subps %xmm2,%xmm1
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,41,108,36,48 // movaps %xmm5,0x30(%rsp)
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,41,68,36,32 // movaps %xmm0,0x20(%rsp)
+ .byte 15,41,100,36,240 // movaps %xmm4,-0x10(%rsp)
+ .byte 15,92,244 // subps %xmm4,%xmm6
+ .byte 15,41,116,36,192 // movaps %xmm6,-0x40(%rsp)
+ .byte 243,68,15,16,112,12 // movss 0xc(%rax),%xmm14
+ .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
+ .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
+ .byte 102,68,15,254,241 // paddd %xmm1,%xmm14
+ .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 102,15,254,193 // paddd %xmm1,%xmm0
+ .byte 102,15,127,68,36,224 // movdqa %xmm0,-0x20(%rsp)
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
+ .byte 102,15,112,193,0 // pshufd $0x0,%xmm1,%xmm0
+ .byte 102,15,127,68,36,208 // movdqa %xmm0,-0x30(%rsp)
+ .byte 243,15,16,5,22,221,0,0 // movss 0xdd16(%rip),%xmm0 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 102,15,111,45,118,230,0,0 // movdqa 0xe676(%rip),%xmm5 # 3b900 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 15,40,37,207,231,0,0 // movaps 0xe7cf(%rip),%xmm4 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,40,247 // movaps %xmm7,%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 15,88,52,36 // addps (%rsp),%xmm6
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 15,95,206 // maxps %xmm6,%xmm1
+ .byte 15,41,124,36,16 // movaps %xmm7,0x10(%rsp)
+ .byte 15,46,61,23,221,0,0 // ucomiss 0xdd17(%rip),%xmm7 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 68,15,40,124,36,240 // movaps -0x10(%rsp),%xmm15
+ .byte 119,6 // ja 2d2cb <_sk_bilerp_clamp_8888_sse2+0x113>
+ .byte 68,15,40,124,36,192 // movaps -0x40(%rsp),%xmm15
+ .byte 15,93,76,36,224 // minps -0x20(%rsp),%xmm1
+ .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
+ .byte 102,15,111,68,36,208 // movdqa -0x30(%rsp),%xmm0
+ .byte 102,15,111,240 // movdqa %xmm0,%xmm6
+ .byte 102,15,244,241 // pmuludq %xmm1,%xmm6
+ .byte 102,68,15,112,230,232 // pshufd $0xe8,%xmm6,%xmm12
+ .byte 102,15,112,201,245 // pshufd $0xf5,%xmm1,%xmm1
+ .byte 102,15,112,240,245 // pshufd $0xf5,%xmm0,%xmm6
+ .byte 102,15,244,241 // pmuludq %xmm1,%xmm6
+ .byte 102,15,112,206,232 // pshufd $0xe8,%xmm6,%xmm1
+ .byte 102,68,15,98,225 // punpckldq %xmm1,%xmm12
+ .byte 243,15,16,13,144,220,0,0 // movss 0xdc90(%rip),%xmm1 # 3af98 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 15,88,116,36,64 // addps 0x40(%rsp),%xmm6
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,95,254 // maxps %xmm6,%xmm7
+ .byte 65,15,93,254 // minps %xmm14,%xmm7
+ .byte 243,15,91,247 // cvttps2dq %xmm7,%xmm6
+ .byte 102,65,15,254,244 // paddd %xmm12,%xmm6
+ .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7
+ .byte 102,72,15,126,248 // movq %xmm7,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 102,73,15,126,242 // movq %xmm6,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 102,67,15,110,52,144 // movd (%r8,%r10,4),%xmm6
+ .byte 102,67,15,110,4,152 // movd (%r8,%r11,4),%xmm0
+ .byte 102,15,98,198 // punpckldq %xmm6,%xmm0
+ .byte 102,65,15,110,52,128 // movd (%r8,%rax,4),%xmm6
+ .byte 102,67,15,110,60,136 // movd (%r8,%r9,4),%xmm7
+ .byte 102,15,98,254 // punpckldq %xmm6,%xmm7
+ .byte 102,15,108,199 // punpcklqdq %xmm7,%xmm0
+ .byte 102,15,111,240 // movdqa %xmm0,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 68,15,91,238 // cvtdq2ps %xmm6,%xmm13
+ .byte 68,15,89,236 // mulps %xmm4,%xmm13
+ .byte 102,15,111,240 // movdqa %xmm0,%xmm6
+ .byte 102,15,114,214,8 // psrld $0x8,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 102,15,111,248 // movdqa %xmm0,%xmm7
+ .byte 102,15,114,215,16 // psrld $0x10,%xmm7
+ .byte 102,15,219,253 // pand %xmm5,%xmm7
+ .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
+ .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 102,15,114,208,24 // psrld $0x18,%xmm0
+ .byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
+ .byte 68,15,89,212 // mulps %xmm4,%xmm10
+ .byte 15,46,13,34,220,0,0 // ucomiss 0xdc22(%rip),%xmm1 # 3afd4 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 68,15,40,92,36,48 // movaps 0x30(%rsp),%xmm11
+ .byte 119,6 // ja 2d3c0 <_sk_bilerp_clamp_8888_sse2+0x208>
+ .byte 68,15,40,92,36,32 // movaps 0x20(%rsp),%xmm11
+ .byte 69,15,89,223 // mulps %xmm15,%xmm11
+ .byte 69,15,89,235 // mulps %xmm11,%xmm13
+ .byte 69,15,88,205 // addps %xmm13,%xmm9
+ .byte 65,15,89,243 // mulps %xmm11,%xmm6
+ .byte 68,15,88,198 // addps %xmm6,%xmm8
+ .byte 65,15,89,251 // mulps %xmm11,%xmm7
+ .byte 15,88,215 // addps %xmm7,%xmm2
+ .byte 69,15,89,218 // mulps %xmm10,%xmm11
+ .byte 65,15,88,219 // addps %xmm11,%xmm3
+ .byte 243,15,88,13,97,218,0,0 // addss 0xda61(%rip),%xmm1 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,5,85,218,0,0 // movss 0xda55(%rip),%xmm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 15,46,193 // ucomiss %xmm1,%xmm0
+ .byte 15,131,12,255,255,255 // jae 2d308 <_sk_bilerp_clamp_8888_sse2+0x150>
+ .byte 15,40,124,36,16 // movaps 0x10(%rsp),%xmm7
+ .byte 243,15,88,61,67,218,0,0 // addss 0xda43(%rip),%xmm7 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,5,55,218,0,0 // movss 0xda37(%rip),%xmm0 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 15,46,199 // ucomiss %xmm7,%xmm0
+ .byte 15,131,133,254,255,255 // jae 2d29f <_sk_bilerp_clamp_8888_sse2+0xe7>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 65,15,40,200 // movaps %xmm8,%xmm1
+ .byte 15,40,100,36,128 // movaps -0x80(%rsp),%xmm4
+ .byte 15,40,108,36,144 // movaps -0x70(%rsp),%xmm5
+ .byte 15,40,116,36,160 // movaps -0x60(%rsp),%xmm6
+ .byte 15,40,124,36,176 // movaps -0x50(%rsp),%xmm7
+ .byte 72,131,196,88 // add $0x58,%rsp
+ .byte 255,224 // jmpq *%rax
+ .byte 144 // nop
+ .byte 144 // nop
+
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
FUNCTION(_sk_start_pipeline_hsw_lowp)
@@ -43492,13 +44135,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2c8d6 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2d50a <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2c898 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2d4cc <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -43517,10 +44160,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2c859 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2d48d <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2c8c9 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2d4fd <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43534,7 +44177,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2c84b <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2d47f <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -43564,7 +44207,7 @@ _sk_seed_shader_hsw_lowp:
.byte 197,249,110,209 // vmovd %ecx,%xmm2
.byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,218 // vmovaps %ymm2,%ymm3
@@ -43680,7 +44323,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,228,221,0,0 // vpbroadcastw 0xdde4(%rip),%ymm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x918>
+ .byte 196,226,125,121,29,176,222,0,0 // vpbroadcastw 0xdeb0(%rip),%ymm3 # 3b580 <_sk_srcover_bgra_8888_sse2_lowp+0x9e4>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43691,7 +44334,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,205,221,0,0 // vpbroadcastw 0xddcd(%rip),%ymm0 # 3a882 <_sk_srcover_bgra_8888_sse2_lowp+0x91a>
+ .byte 196,226,125,121,5,153,222,0,0 // vpbroadcastw 0xde99(%rip),%ymm0 # 3b582 <_sk_srcover_bgra_8888_sse2_lowp+0x9e6>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -43702,8 +44345,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -43746,7 +44389,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,54,221,0,0 // vpbroadcastw 0xdd36(%rip),%ymm8 # 3a884 <_sk_srcover_bgra_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,121,5,2,222,0,0 // vpbroadcastw 0xde02(%rip),%ymm8 # 3b584 <_sk_srcover_bgra_8888_sse2_lowp+0x9e8>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -43763,7 +44406,7 @@ HIDDEN _sk_premul_dst_hsw_lowp
FUNCTION(_sk_premul_dst_hsw_lowp)
_sk_premul_dst_hsw_lowp:
.byte 197,197,213,228 // vpmullw %ymm4,%ymm7,%ymm4
- .byte 196,98,125,121,5,1,221,0,0 // vpbroadcastw 0xdd01(%rip),%ymm8 # 3a886 <_sk_srcover_bgra_8888_sse2_lowp+0x91e>
+ .byte 196,98,125,121,5,205,221,0,0 // vpbroadcastw 0xddcd(%rip),%ymm8 # 3b586 <_sk_srcover_bgra_8888_sse2_lowp+0x9ea>
.byte 196,193,93,253,224 // vpaddw %ymm8,%ymm4,%ymm4
.byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
.byte 197,197,213,237 // vpmullw %ymm5,%ymm7,%ymm5
@@ -43811,7 +44454,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,152,220,0,0 // vpbroadcastw 0xdc98(%rip),%ymm8 # 3a888 <_sk_srcover_bgra_8888_sse2_lowp+0x920>
+ .byte 196,98,125,121,5,100,221,0,0 // vpbroadcastw 0xdd64(%rip),%ymm8 # 3b588 <_sk_srcover_bgra_8888_sse2_lowp+0x9ec>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -43835,7 +44478,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,101,220,0,0 // vpbroadcastw 0xdc65(%rip),%ymm8 # 3a88a <_sk_srcover_bgra_8888_sse2_lowp+0x922>
+ .byte 196,98,125,121,5,49,221,0,0 // vpbroadcastw 0xdd31(%rip),%ymm8 # 3b58a <_sk_srcover_bgra_8888_sse2_lowp+0x9ee>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43862,7 +44505,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,5,220,0,0 // vpbroadcastw 0xdc05(%rip),%ymm9 # 3a88c <_sk_srcover_bgra_8888_sse2_lowp+0x924>
+ .byte 196,98,125,121,13,209,220,0,0 // vpbroadcastw 0xdcd1(%rip),%ymm9 # 3b58c <_sk_srcover_bgra_8888_sse2_lowp+0x9f0>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -43889,7 +44532,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,162,219,0,0 // vpbroadcastw 0xdba2(%rip),%ymm8 # 3a88e <_sk_srcover_bgra_8888_sse2_lowp+0x926>
+ .byte 196,98,125,121,5,110,220,0,0 // vpbroadcastw 0xdc6e(%rip),%ymm8 # 3b58e <_sk_srcover_bgra_8888_sse2_lowp+0x9f2>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -43909,7 +44552,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,95,219,0,0 // vpbroadcastw 0xdb5f(%rip),%ymm8 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x928>
+ .byte 196,98,125,121,5,43,220,0,0 // vpbroadcastw 0xdc2b(%rip),%ymm8 # 3b590 <_sk_srcover_bgra_8888_sse2_lowp+0x9f4>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -43928,7 +44571,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,32,219,0,0 // vpbroadcastw 0xdb20(%rip),%ymm8 # 3a892 <_sk_srcover_bgra_8888_sse2_lowp+0x92a>
+ .byte 196,98,125,121,5,236,219,0,0 // vpbroadcastw 0xdbec(%rip),%ymm8 # 3b592 <_sk_srcover_bgra_8888_sse2_lowp+0x9f6>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43949,7 +44592,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,217,218,0,0 // vpbroadcastw 0xdad9(%rip),%ymm8 # 3a894 <_sk_srcover_bgra_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,121,5,165,219,0,0 // vpbroadcastw 0xdba5(%rip),%ymm8 # 3b594 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43970,7 +44613,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,146,218,0,0 // vpbroadcastw 0xda92(%rip),%ymm8 # 3a896 <_sk_srcover_bgra_8888_sse2_lowp+0x92e>
+ .byte 196,98,125,121,5,94,219,0,0 // vpbroadcastw 0xdb5e(%rip),%ymm8 # 3b596 <_sk_srcover_bgra_8888_sse2_lowp+0x9fa>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -43995,7 +44638,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,55,218,0,0 // vpbroadcastw 0xda37(%rip),%ymm8 # 3a898 <_sk_srcover_bgra_8888_sse2_lowp+0x930>
+ .byte 196,98,125,121,5,3,219,0,0 // vpbroadcastw 0xdb03(%rip),%ymm8 # 3b598 <_sk_srcover_bgra_8888_sse2_lowp+0x9fc>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44021,7 +44664,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,220,217,0,0 // vpbroadcastw 0xd9dc(%rip),%ymm8 # 3a89a <_sk_srcover_bgra_8888_sse2_lowp+0x932>
+ .byte 196,98,125,121,5,168,218,0,0 // vpbroadcastw 0xdaa8(%rip),%ymm8 # 3b59a <_sk_srcover_bgra_8888_sse2_lowp+0x9fe>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -44040,7 +44683,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,157,217,0,0 // vpbroadcastw 0xd99d(%rip),%ymm8 # 3a89c <_sk_srcover_bgra_8888_sse2_lowp+0x934>
+ .byte 196,98,125,121,5,105,218,0,0 // vpbroadcastw 0xda69(%rip),%ymm8 # 3b59c <_sk_srcover_bgra_8888_sse2_lowp+0xa00>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -44076,7 +44719,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,19,217,0,0 // vpbroadcastw 0xd913(%rip),%ymm8 # 3a89e <_sk_srcover_bgra_8888_sse2_lowp+0x936>
+ .byte 196,98,125,121,5,223,217,0,0 // vpbroadcastw 0xd9df(%rip),%ymm8 # 3b59e <_sk_srcover_bgra_8888_sse2_lowp+0xa02>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -44093,7 +44736,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,224,216,0,0 // vpbroadcastw 0xd8e0(%rip),%ymm9 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x938>
+ .byte 196,98,125,121,13,172,217,0,0 // vpbroadcastw 0xd9ac(%rip),%ymm9 # 3b5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xa04>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44119,7 +44762,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,133,216,0,0 // vpbroadcastw 0xd885(%rip),%ymm8 # 3a8a2 <_sk_srcover_bgra_8888_sse2_lowp+0x93a>
+ .byte 196,98,125,121,5,81,217,0,0 // vpbroadcastw 0xd951(%rip),%ymm8 # 3b5a2 <_sk_srcover_bgra_8888_sse2_lowp+0xa06>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -44153,7 +44796,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,9,216,0,0 // vpbroadcastw 0xd809(%rip),%ymm9 # 3a8a4 <_sk_srcover_bgra_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,121,13,213,216,0,0 // vpbroadcastw 0xd8d5(%rip),%ymm9 # 3b5a4 <_sk_srcover_bgra_8888_sse2_lowp+0xa08>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44187,7 +44830,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,138,215,0,0 // vpbroadcastw 0xd78a(%rip),%ymm9 # 3a8a6 <_sk_srcover_bgra_8888_sse2_lowp+0x93e>
+ .byte 196,98,125,121,13,86,216,0,0 // vpbroadcastw 0xd856(%rip),%ymm9 # 3b5a6 <_sk_srcover_bgra_8888_sse2_lowp+0xa0a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44221,10 +44864,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,11,215,0,0 // vpbroadcastw 0xd70b(%rip),%ymm9 # 3a8a8 <_sk_srcover_bgra_8888_sse2_lowp+0x940>
+ .byte 196,98,125,121,13,215,215,0,0 // vpbroadcastw 0xd7d7(%rip),%ymm9 # 3b5a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,250,214,0,0 // vpbroadcastw 0xd6fa(%rip),%ymm10 # 3a8aa <_sk_srcover_bgra_8888_sse2_lowp+0x942>
+ .byte 196,98,125,121,21,198,215,0,0 // vpbroadcastw 0xd7c6(%rip),%ymm10 # 3b5aa <_sk_srcover_bgra_8888_sse2_lowp+0xa0e>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44257,10 +44900,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,127,214,0,0 // vpbroadcastw 0xd67f(%rip),%ymm9 # 3a8ac <_sk_srcover_bgra_8888_sse2_lowp+0x944>
+ .byte 196,98,125,121,13,75,215,0,0 // vpbroadcastw 0xd74b(%rip),%ymm9 # 3b5ac <_sk_srcover_bgra_8888_sse2_lowp+0xa10>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,110,214,0,0 // vpbroadcastw 0xd66e(%rip),%ymm10 # 3a8ae <_sk_srcover_bgra_8888_sse2_lowp+0x946>
+ .byte 196,98,125,121,21,58,215,0,0 // vpbroadcastw 0xd73a(%rip),%ymm10 # 3b5ae <_sk_srcover_bgra_8888_sse2_lowp+0xa12>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44288,7 +44931,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,11,214,0,0 // vpbroadcastw 0xd60b(%rip),%ymm9 # 3a8b2 <_sk_srcover_bgra_8888_sse2_lowp+0x94a>
+ .byte 196,98,125,121,13,215,214,0,0 // vpbroadcastw 0xd6d7(%rip),%ymm9 # 3b5b2 <_sk_srcover_bgra_8888_sse2_lowp+0xa16>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -44316,7 +44959,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,130,213,0,0 // vpbroadcastw 0xd582(%rip),%ymm14 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x948>
+ .byte 196,98,125,121,53,78,214,0,0 // vpbroadcastw 0xd64e(%rip),%ymm14 # 3b5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xa14>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -44353,7 +44996,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,247,212,0,0 // vpbroadcastw 0xd4f7(%rip),%ymm9 # 3a8b6 <_sk_srcover_bgra_8888_sse2_lowp+0x94e>
+ .byte 196,98,125,121,13,195,213,0,0 // vpbroadcastw 0xd5c3(%rip),%ymm9 # 3b5b6 <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -44377,7 +45020,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,127,212,0,0 // vpbroadcastw 0xd47f(%rip),%ymm13 # 3a8b4 <_sk_srcover_bgra_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,121,45,75,213,0,0 // vpbroadcastw 0xd54b(%rip),%ymm13 # 3b5b4 <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -44429,10 +45072,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d52b <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2e15f <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2e2d8 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44442,10 +45085,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2e286 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2e286 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44454,7 +45097,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2e286 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44470,7 +45113,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2e286 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44480,7 +45123,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2d652 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2e286 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44500,7 +45143,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,69,210,0,0 // vmovdqa 0xd245(%rip),%ymm8 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x958>
+ .byte 197,125,111,5,17,211,0,0 // vmovdqa 0xd311(%rip),%ymm8 # 3b5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xa24>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -44511,7 +45154,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 120,254 // js 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 120,254 // js 2e2d8 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 255 // (bad)
.byte 255,175,254,255,255,153 // ljmp *-0x66000002(%rdi)
.byte 254 // (bad)
@@ -44559,10 +45202,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d732 <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2e366 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2e4e0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44572,10 +45215,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2e48d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2e48d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44584,7 +45227,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2e48d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44600,7 +45243,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2e48d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44610,7 +45253,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2e48d <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44630,7 +45273,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,94,208,0,0 // vmovdqa 0xd05e(%rip),%ymm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x978>
+ .byte 197,125,111,5,42,209,0,0 // vmovdqa 0xd12a(%rip),%ymm8 # 3b5e0 <_sk_srcover_bgra_8888_sse2_lowp+0xa44>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -44641,7 +45284,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2e4e0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44702,20 +45345,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2d969 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2e59d <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2da18 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e64c <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2e648 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2e648 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2e648 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44723,12 +45366,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2e648 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2e648 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -44785,10 +45428,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2daa6 <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2e6da <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2e854 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44798,10 +45441,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2e801 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2e801 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44810,7 +45453,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2e801 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44826,7 +45469,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2e801 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44836,7 +45479,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2e801 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44856,7 +45499,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,10,205,0,0 // vmovdqa 0xcd0a(%rip),%ymm8 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x998>
+ .byte 197,125,111,5,214,205,0,0 // vmovdqa 0xcdd6(%rip),%ymm8 # 3b600 <_sk_srcover_bgra_8888_sse2_lowp+0xa64>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -44867,7 +45510,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2e854 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44914,10 +45557,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2dcae <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2e8e2 <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ea5c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44927,10 +45570,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2ea09 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2ea09 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44939,7 +45582,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2ea09 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44955,7 +45598,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2ea09 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44965,7 +45608,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2ea09 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44985,7 +45628,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,34,203,0,0 // vmovdqa 0xcb22(%rip),%ymm8 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x9b8>
+ .byte 197,125,111,5,238,203,0,0 // vmovdqa 0xcbee(%rip),%ymm8 # 3b620 <_sk_srcover_bgra_8888_sse2_lowp+0xa84>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -44996,7 +45639,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2ea5c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45057,20 +45700,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2dee5 <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2eb19 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2df94 <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2ebc8 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2ebc4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2ebc4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2ebc4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45078,12 +45721,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2ebc4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2ebc4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -45166,7 +45809,7 @@ _sk_gather_8888_hsw_lowp:
.byte 196,195,101,14,194,170 // vpblendw $0xaa,%ymm10,%ymm3,%ymm0
.byte 196,195,109,14,202,170 // vpblendw $0xaa,%ymm10,%ymm2,%ymm1
.byte 196,226,117,43,200 // vpackusdw %ymm0,%ymm1,%ymm1
- .byte 197,125,111,5,190,200,0,0 // vmovdqa 0xc8be(%rip),%ymm8 # 3a940 <_sk_srcover_bgra_8888_sse2_lowp+0x9d8>
+ .byte 197,125,111,5,138,201,0,0 // vmovdqa 0xc98a(%rip),%ymm8 # 3b640 <_sk_srcover_bgra_8888_sse2_lowp+0xaa4>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -45216,7 +45859,7 @@ _sk_gather_bgra_hsw_lowp:
.byte 196,195,125,14,202,170 // vpblendw $0xaa,%ymm10,%ymm0,%ymm1
.byte 196,195,61,14,210,170 // vpblendw $0xaa,%ymm10,%ymm8,%ymm2
.byte 196,226,109,43,201 // vpackusdw %ymm1,%ymm2,%ymm1
- .byte 197,253,111,29,5,200,0,0 // vmovdqa 0xc805(%rip),%ymm3 # 3a960 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
+ .byte 197,253,111,29,209,200,0,0 // vmovdqa 0xc8d1(%rip),%ymm3 # 3b660 <_sk_srcover_bgra_8888_sse2_lowp+0xac4>
.byte 197,245,219,211 // vpand %ymm3,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -45240,24 +45883,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e1c1 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2edf5 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2e32c <_sk_load_565_hsw_lowp+0x1aa>
+ .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2ef60 <_sk_load_565_hsw_lowp+0x1aa>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2eefd <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2eefd <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2eefd <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -45267,7 +45910,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2eefd <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45279,7 +45922,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2e2c9 <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2eefd <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45293,13 +45936,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,174,198,0,0 // vpbroadcastw 0xc6ae(%rip),%ymm1 # 3a980 <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
+ .byte 196,226,125,121,13,122,199,0,0 // vpbroadcastw 0xc77a(%rip),%ymm1 # 3b680 <_sk_srcover_bgra_8888_sse2_lowp+0xae4>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,153,198,0,0 // vpbroadcastw 0xc699(%rip),%ymm3 # 3a982 <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
+ .byte 196,226,125,121,29,101,199,0,0 // vpbroadcastw 0xc765(%rip),%ymm3 # 3b682 <_sk_srcover_bgra_8888_sse2_lowp+0xae6>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,142,198,0,0 // vpbroadcastw 0xc68e(%rip),%ymm3 # 3a984 <_sk_srcover_bgra_8888_sse2_lowp+0xa1c>
+ .byte 196,226,125,121,29,90,199,0,0 // vpbroadcastw 0xc75a(%rip),%ymm3 # 3b684 <_sk_srcover_bgra_8888_sse2_lowp+0xae8>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -45310,7 +45953,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,92,198,0,0 // vpbroadcastw 0xc65c(%rip),%ymm3 # 3a986 <_sk_srcover_bgra_8888_sse2_lowp+0xa1e>
+ .byte 196,226,125,121,29,40,199,0,0 // vpbroadcastw 0xc728(%rip),%ymm3 # 3b686 <_sk_srcover_bgra_8888_sse2_lowp+0xaea>
.byte 255,224 // jmpq *%rax
.byte 135,254 // xchg %edi,%esi
.byte 255 // (bad)
@@ -45360,24 +46003,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e3a7 <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2efdb <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2e514 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2f148 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2f0e3 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2f0e3 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2f0e3 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -45387,7 +46030,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2f0e3 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45399,7 +46042,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2f0e3 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45413,13 +46056,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,208,196,0,0 // vpbroadcastw 0xc4d0(%rip),%ymm5 # 3a988 <_sk_srcover_bgra_8888_sse2_lowp+0xa20>
+ .byte 196,226,125,121,45,156,197,0,0 // vpbroadcastw 0xc59c(%rip),%ymm5 # 3b688 <_sk_srcover_bgra_8888_sse2_lowp+0xaec>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,187,196,0,0 // vpbroadcastw 0xc4bb(%rip),%ymm7 # 3a98a <_sk_srcover_bgra_8888_sse2_lowp+0xa22>
+ .byte 196,226,125,121,61,135,197,0,0 // vpbroadcastw 0xc587(%rip),%ymm7 # 3b68a <_sk_srcover_bgra_8888_sse2_lowp+0xaee>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,176,196,0,0 // vpbroadcastw 0xc4b0(%rip),%ymm7 # 3a98c <_sk_srcover_bgra_8888_sse2_lowp+0xa24>
+ .byte 196,226,125,121,61,124,197,0,0 // vpbroadcastw 0xc57c(%rip),%ymm7 # 3b68c <_sk_srcover_bgra_8888_sse2_lowp+0xaf0>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -45430,7 +46073,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,126,196,0,0 // vpbroadcastw 0xc47e(%rip),%ymm7 # 3a98e <_sk_srcover_bgra_8888_sse2_lowp+0xa26>
+ .byte 196,226,125,121,61,74,197,0,0 // vpbroadcastw 0xc54a(%rip),%ymm7 # 3b68e <_sk_srcover_bgra_8888_sse2_lowp+0xaf2>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -45481,10 +46124,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,39,196,0,0 // vpbroadcastw 0xc427(%rip),%ymm8 # 3a990 <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
+ .byte 196,98,125,121,5,243,196,0,0 // vpbroadcastw 0xc4f3(%rip),%ymm8 # 3b690 <_sk_srcover_bgra_8888_sse2_lowp+0xaf4>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,22,196,0,0 // vpbroadcastw 0xc416(%rip),%ymm9 # 3a992 <_sk_srcover_bgra_8888_sse2_lowp+0xa2a>
+ .byte 196,98,125,121,13,226,196,0,0 // vpbroadcastw 0xc4e2(%rip),%ymm9 # 3b692 <_sk_srcover_bgra_8888_sse2_lowp+0xaf6>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -45494,31 +46137,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2e5be <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2f1f2 <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e66c <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2f2a0 <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2f299 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2f299 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2f299 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2e665 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2f299 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2e65f <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2f293 <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45541,7 +46184,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2e681 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2f2b5 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -45653,13 +46296,13 @@ _sk_gather_565_hsw_lowp:
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,226,125,121,13,90,193,0,0 // vpbroadcastw 0xc15a(%rip),%ymm1 # 3a994 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c>
+ .byte 196,226,125,121,13,38,194,0,0 // vpbroadcastw 0xc226(%rip),%ymm1 # 3b694 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,69,193,0,0 // vpbroadcastw 0xc145(%rip),%ymm3 # 3a996 <_sk_srcover_bgra_8888_sse2_lowp+0xa2e>
+ .byte 196,226,125,121,29,17,194,0,0 // vpbroadcastw 0xc211(%rip),%ymm3 # 3b696 <_sk_srcover_bgra_8888_sse2_lowp+0xafa>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,58,193,0,0 // vpbroadcastw 0xc13a(%rip),%ymm3 # 3a998 <_sk_srcover_bgra_8888_sse2_lowp+0xa30>
+ .byte 196,226,125,121,29,6,194,0,0 // vpbroadcastw 0xc206(%rip),%ymm3 # 3b698 <_sk_srcover_bgra_8888_sse2_lowp+0xafc>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -45670,7 +46313,7 @@ _sk_gather_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,8,193,0,0 // vpbroadcastw 0xc108(%rip),%ymm3 # 3a99a <_sk_srcover_bgra_8888_sse2_lowp+0xa32>
+ .byte 196,226,125,121,29,212,193,0,0 // vpbroadcastw 0xc1d4(%rip),%ymm3 # 3b69a <_sk_srcover_bgra_8888_sse2_lowp+0xafe>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_4444_hsw_lowp
@@ -45686,24 +46329,24 @@ _sk_load_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e8d3 <_sk_load_4444_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2f507 <_sk_load_4444_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ea2c <_sk_load_4444_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2f660 <_sk_load_4444_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2f60f <_sk_load_4444_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2f60f <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2f60f <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -45713,7 +46356,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2f60f <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45725,7 +46368,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2e9db <_sk_load_4444_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2f60f <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45741,7 +46384,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,174,191,0,0 // vpbroadcastw 0xbfae(%rip),%ymm3 # 3a99c <_sk_srcover_bgra_8888_sse2_lowp+0xa34>
+ .byte 196,226,125,121,29,122,192,0,0 // vpbroadcastw 0xc07a(%rip),%ymm3 # 3b69c <_sk_srcover_bgra_8888_sse2_lowp+0xb00>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -45806,24 +46449,24 @@ _sk_load_4444_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2eaa7 <_sk_load_4444_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2f6db <_sk_load_4444_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ec00 <_sk_load_4444_dst_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2f834 <_sk_load_4444_dst_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2f7e3 <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2f7e3 <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2f7e3 <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -45833,7 +46476,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2f7e3 <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45845,7 +46488,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2f7e3 <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45861,7 +46504,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
.byte 197,213,113,212,12 // vpsrlw $0xc,%ymm4,%ymm5
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
- .byte 196,226,125,121,61,220,189,0,0 // vpbroadcastw 0xbddc(%rip),%ymm7 # 3a99e <_sk_srcover_bgra_8888_sse2_lowp+0xa36>
+ .byte 196,226,125,121,61,168,190,0,0 // vpbroadcastw 0xbea8(%rip),%ymm7 # 3b69e <_sk_srcover_bgra_8888_sse2_lowp+0xb02>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,189,113,212,4 // vpsrlw $0x4,%ymm4,%ymm8
.byte 197,61,219,199 // vpand %ymm7,%ymm8,%ymm8
@@ -45922,13 +46565,13 @@ _sk_store_4444_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,75,189,0,0 // vpbroadcastw 0xbd4b(%rip),%ymm8 # 3a9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xa38>
+ .byte 196,98,125,121,5,23,190,0,0 // vpbroadcastw 0xbe17(%rip),%ymm8 # 3b6a0 <_sk_srcover_bgra_8888_sse2_lowp+0xb04>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
.byte 197,181,113,241,4 // vpsllw $0x4,%ymm1,%ymm9
- .byte 197,53,219,13,84,189,0,0 // vpand 0xbd54(%rip),%ymm9,%ymm9 # 3a9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xa58>
+ .byte 197,53,219,13,32,190,0,0 // vpand 0xbe20(%rip),%ymm9,%ymm9 # 3b6c0 <_sk_srcover_bgra_8888_sse2_lowp+0xb24>
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,102,189,0,0 // vpbroadcastw 0xbd66(%rip),%ymm9 # 3a9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xa78>
+ .byte 196,98,125,121,13,50,190,0,0 // vpbroadcastw 0xbe32(%rip),%ymm9 # 3b6e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb44>
.byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9
.byte 197,173,113,211,4 // vpsrlw $0x4,%ymm3,%ymm10
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
@@ -45937,31 +46580,31 @@ _sk_store_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2ecb7 <_sk_store_4444_hsw_lowp+0x7b>
+ .byte 119,31 // ja 2f8eb <_sk_store_4444_hsw_lowp+0x7b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2ed64 <_sk_store_4444_hsw_lowp+0x128>
+ .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2f998 <_sk_store_4444_hsw_lowp+0x128>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,167,0,0,0 // jmpq 2f992 <_sk_store_4444_hsw_lowp+0x122>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,156,0,0,0 // jmpq 2f992 <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,137,0,0,0 // jmpq 2f992 <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2ed5e <_sk_store_4444_hsw_lowp+0x122>
+ .byte 235,105 // jmp 2f992 <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2ed58 <_sk_store_4444_hsw_lowp+0x11c>
+ .byte 235,55 // jmp 2f98c <_sk_store_4444_hsw_lowp+0x11c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45984,7 +46627,7 @@ _sk_store_4444_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2ed79 <_sk_store_4444_hsw_lowp+0x13d>
+ .byte 121,255 // jns 2f9ad <_sk_store_4444_hsw_lowp+0x13d>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -46099,7 +46742,7 @@ _sk_gather_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,166,186,0,0 // vpbroadcastw 0xbaa6(%rip),%ymm3 # 3a9e2 <_sk_srcover_bgra_8888_sse2_lowp+0xa7a>
+ .byte 196,226,125,121,29,114,187,0,0 // vpbroadcastw 0xbb72(%rip),%ymm3 # 3b6e2 <_sk_srcover_bgra_8888_sse2_lowp+0xb46>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -46127,38 +46770,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2efb3 <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2fbe7 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2f078 <_sk_load_a8_hsw_lowp+0x101>
+ .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2fcac <_sk_load_a8_hsw_lowp+0x101>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2fc96 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2fc96 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2fc96 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2fc96 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2fc96 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -46216,38 +46859,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f0f0 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2fd24 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2f1b4 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2fde8 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2fdd3 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2fdd3 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2fdd3 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2fdd3 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2fdd3 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -46304,7 +46947,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,53,192,0,0 // vmovdqa 0xc035(%rip),%xmm9 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
+ .byte 197,121,111,13,1,193,0,0 // vmovdqa 0xc101(%rip),%xmm9 # 3bf40 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -46312,28 +46955,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2f240 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2fe74 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2f2c0 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2fef4 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2feed <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2feed <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2feed <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2feed <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2f2b3 <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2fee7 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -46342,7 +46985,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2f2c1 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2fef5 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -46483,38 +47126,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f4df <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 30113 <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2f5a8 <_sk_load_g8_hsw_lowp+0x105>
+ .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 301dc <_sk_load_g8_hsw_lowp+0x105>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 301c2 <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 301c2 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 301c2 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 301c2 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 301c2 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -46524,7 +47167,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,70,180,0,0 // vpbroadcastw 0xb446(%rip),%ymm3 # 3a9e4 <_sk_srcover_bgra_8888_sse2_lowp+0xa7c>
+ .byte 196,226,125,121,29,18,181,0,0 // vpbroadcastw 0xb512(%rip),%ymm3 # 3b6e4 <_sk_srcover_bgra_8888_sse2_lowp+0xb48>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -46535,7 +47178,7 @@ _sk_load_g8_hsw_lowp:
.byte 255,66,255 // incl -0x1(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2f5b5 <_sk_load_g8_hsw_lowp+0x112>
+ .byte 126,255 // jle 301e9 <_sk_load_g8_hsw_lowp+0x112>
.byte 255 // (bad)
.byte 255,118,255 // pushq -0x1(%rsi)
.byte 255 // (bad)
@@ -46575,38 +47218,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f620 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 30254 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2f6ec <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 30320 <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 30303 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 30303 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 30303 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 30303 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 30303 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -46616,7 +47259,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,7,179,0,0 // vpbroadcastw 0xb307(%rip),%ymm7 # 3a9e6 <_sk_srcover_bgra_8888_sse2_lowp+0xa7e>
+ .byte 196,226,125,121,61,211,179,0,0 // vpbroadcastw 0xb3d3(%rip),%ymm7 # 3b6e6 <_sk_srcover_bgra_8888_sse2_lowp+0xb4a>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -46630,7 +47273,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2f6f9 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 3032d <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -46660,12 +47303,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,183,178,0,0 // vpbroadcastw 0xb2b7(%rip),%ymm3 # 3a9e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa80>
+ .byte 196,226,125,121,29,131,179,0,0 // vpbroadcastw 0xb383(%rip),%ymm3 # 3b6e8 <_sk_srcover_bgra_8888_sse2_lowp+0xb4c>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,172,178,0,0 // vpbroadcastw 0xb2ac(%rip),%ymm3 # 3a9ea <_sk_srcover_bgra_8888_sse2_lowp+0xa82>
+ .byte 196,226,125,121,29,120,179,0,0 // vpbroadcastw 0xb378(%rip),%ymm3 # 3b6ea <_sk_srcover_bgra_8888_sse2_lowp+0xb4e>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,157,178,0,0 // vpbroadcastw 0xb29d(%rip),%ymm1 # 3a9ec <_sk_srcover_bgra_8888_sse2_lowp+0xa84>
+ .byte 196,226,125,121,13,105,179,0,0 // vpbroadcastw 0xb369(%rip),%ymm1 # 3b6ec <_sk_srcover_bgra_8888_sse2_lowp+0xb50>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -46764,7 +47407,7 @@ _sk_gather_g8_hsw_lowp:
.byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,224,176,0,0 // vpbroadcastw 0xb0e0(%rip),%ymm3 # 3a9ee <_sk_srcover_bgra_8888_sse2_lowp+0xa86>
+ .byte 196,226,125,121,29,172,177,0,0 // vpbroadcastw 0xb1ac(%rip),%ymm3 # 3b6ee <_sk_srcover_bgra_8888_sse2_lowp+0xb52>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -46775,13 +47418,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,166,176,0,0 // vpbroadcastw 0xb0a6(%rip),%ymm9 # 3a9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xa88>
+ .byte 196,98,125,121,13,114,177,0,0 // vpbroadcastw 0xb172(%rip),%ymm9 # 3b6f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb54>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -46802,12 +47445,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,66,176,0,0 // vpbroadcastw 0xb042(%rip),%ymm9 # 3a9f2 <_sk_srcover_bgra_8888_sse2_lowp+0xa8a>
+ .byte 196,98,125,121,13,14,177,0,0 // vpbroadcastw 0xb10e(%rip),%ymm9 # 3b6f2 <_sk_srcover_bgra_8888_sse2_lowp+0xb56>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46844,38 +47487,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2fa4e <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 30682 <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2fb4c <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 30780 <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 30735 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 30735 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 30735 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 30735 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 30735 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46885,7 +47528,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,225,174,0,0 // vpbroadcastw 0xaee1(%rip),%ymm9 # 3a9f4 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c>
+ .byte 196,98,125,121,13,173,175,0,0 // vpbroadcastw 0xafad(%rip),%ymm9 # 3b6f4 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -46906,7 +47549,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02fb58 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c03078c <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -46945,38 +47588,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2fbc5 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 307f9 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2fce8 <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 3091c <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 308ac <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 308ac <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 308ac <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 308ac <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 308ac <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46985,7 +47628,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,112,173,0,0 // vpbroadcastw 0xad70(%rip),%ymm9 # 3a9f6 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e>
+ .byte 196,98,125,121,13,60,174,0,0 // vpbroadcastw 0xae3c(%rip),%ymm9 # 3b6f6 <_sk_srcover_bgra_8888_sse2_lowp+0xb5a>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -47017,7 +47660,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702fcf3 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
+ .byte 232,254,255,255,38 // callq 27030927 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -47038,7 +47681,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2fd15 <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 30949 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -47059,24 +47702,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2fd64 <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 30998 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2ff4c <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 30b80 <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 30aa4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 30aa4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 30aa4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -47086,7 +47729,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 30aa4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47098,7 +47741,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 30aa4 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47112,13 +47755,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,127,171,0,0 // vpbroadcastw 0xab7f(%rip),%ymm9 # 3a9f8 <_sk_srcover_bgra_8888_sse2_lowp+0xa90>
+ .byte 196,98,125,121,13,75,172,0,0 // vpbroadcastw 0xac4b(%rip),%ymm9 # 3b6f8 <_sk_srcover_bgra_8888_sse2_lowp+0xb5c>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,103,171,0,0 // vpbroadcastw 0xab67(%rip),%ymm11 # 3a9fa <_sk_srcover_bgra_8888_sse2_lowp+0xa92>
+ .byte 196,98,125,121,29,51,172,0,0 // vpbroadcastw 0xac33(%rip),%ymm11 # 3b6fa <_sk_srcover_bgra_8888_sse2_lowp+0xb5e>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,91,171,0,0 // vpbroadcastw 0xab5b(%rip),%ymm11 # 3a9fc <_sk_srcover_bgra_8888_sse2_lowp+0xa94>
+ .byte 196,98,125,121,29,39,172,0,0 // vpbroadcastw 0xac27(%rip),%ymm11 # 3b6fc <_sk_srcover_bgra_8888_sse2_lowp+0xb60>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -47128,7 +47771,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,34,171,0,0 // vpbroadcastw 0xab22(%rip),%ymm11 # 3a9fe <_sk_srcover_bgra_8888_sse2_lowp+0xa96>
+ .byte 196,98,125,121,29,238,171,0,0 // vpbroadcastw 0xabee(%rip),%ymm11 # 3b6fe <_sk_srcover_bgra_8888_sse2_lowp+0xb62>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -47138,7 +47781,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,238,170,0,0 // vpbroadcastw 0xaaee(%rip),%ymm8 # 3aa00 <_sk_srcover_bgra_8888_sse2_lowp+0xa98>
+ .byte 196,98,125,121,5,186,171,0,0 // vpbroadcastw 0xabba(%rip),%ymm8 # 3b700 <_sk_srcover_bgra_8888_sse2_lowp+0xb64>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -47202,24 +47845,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2ffc8 <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 30bfc <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 301e4 <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 30e18 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 30d08 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 30d08 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 30d08 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -47229,7 +47872,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 30d08 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47241,7 +47884,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 30d08 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47255,13 +47898,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,37,169,0,0 // vpbroadcastw 0xa925(%rip),%ymm9 # 3aa02 <_sk_srcover_bgra_8888_sse2_lowp+0xa9a>
+ .byte 196,98,125,121,13,241,169,0,0 // vpbroadcastw 0xa9f1(%rip),%ymm9 # 3b702 <_sk_srcover_bgra_8888_sse2_lowp+0xb66>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,13,169,0,0 // vpbroadcastw 0xa90d(%rip),%ymm11 # 3aa04 <_sk_srcover_bgra_8888_sse2_lowp+0xa9c>
+ .byte 196,98,125,121,29,217,169,0,0 // vpbroadcastw 0xa9d9(%rip),%ymm11 # 3b704 <_sk_srcover_bgra_8888_sse2_lowp+0xb68>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,1,169,0,0 // vpbroadcastw 0xa901(%rip),%ymm11 # 3aa06 <_sk_srcover_bgra_8888_sse2_lowp+0xa9e>
+ .byte 196,98,125,121,29,205,169,0,0 // vpbroadcastw 0xa9cd(%rip),%ymm11 # 3b706 <_sk_srcover_bgra_8888_sse2_lowp+0xb6a>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -47271,7 +47914,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,200,168,0,0 // vpbroadcastw 0xa8c8(%rip),%ymm11 # 3aa08 <_sk_srcover_bgra_8888_sse2_lowp+0xaa0>
+ .byte 196,98,125,121,29,148,169,0,0 // vpbroadcastw 0xa994(%rip),%ymm11 # 3b708 <_sk_srcover_bgra_8888_sse2_lowp+0xb6c>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -47280,7 +47923,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,152,168,0,0 // vpbroadcastw 0xa898(%rip),%ymm12 # 3aa0a <_sk_srcover_bgra_8888_sse2_lowp+0xaa2>
+ .byte 196,98,125,121,37,100,169,0,0 // vpbroadcastw 0xa964(%rip),%ymm12 # 3b70a <_sk_srcover_bgra_8888_sse2_lowp+0xb6e>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -47353,7 +47996,7 @@ _sk_clamp_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -47370,7 +48013,7 @@ _sk_repeat_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -47380,10 +48023,10 @@ HIDDEN _sk_mirror_x_1_hsw_lowp
.globl _sk_mirror_x_1_hsw_lowp
FUNCTION(_sk_mirror_x_1_hsw_lowp)
_sk_mirror_x_1_hsw_lowp:
- .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3ae64 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
@@ -47394,13 +48037,13 @@ _sk_mirror_x_1_hsw_lowp:
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,5,209,160,0,0 // vbroadcastss 0xa0d1(%rip),%ymm8 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 196,193,124,84,192 // vandps %ymm8,%ymm0,%ymm0
.byte 196,193,116,84,200 // vandps %ymm8,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -47420,7 +48063,7 @@ _sk_gradient_hsw_lowp:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,60 // jb 30378 <_sk_gradient_hsw_lowp+0x6d>
+ .byte 114,60 // jb 30fac <_sk_gradient_hsw_lowp+0x6d>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
@@ -47432,9 +48075,9 @@ _sk_gradient_hsw_lowp:
.byte 197,213,250,234 // vpsubd %ymm2,%ymm5,%ymm5
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,224 // jne 3034e <_sk_gradient_hsw_lowp+0x43>
+ .byte 117,224 // jne 30f82 <_sk_gradient_hsw_lowp+0x43>
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 3042c <_sk_gradient_hsw_lowp+0x121>
+ .byte 15,135,180,0,0,0 // ja 31060 <_sk_gradient_hsw_lowp+0x121>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -47471,7 +48114,7 @@ _sk_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,85,22,255 // vpermps %ymm15,%ymm5,%ymm7
- .byte 233,34,1,0,0 // jmpq 3054e <_sk_gradient_hsw_lowp+0x243>
+ .byte 233,34,1,0,0 // jmpq 31182 <_sk_gradient_hsw_lowp+0x243>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
@@ -47540,8 +48183,8 @@ _sk_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -47551,7 +48194,7 @@ _sk_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,92,164,0,0 // vmovdqa 0xa45c(%rip),%ymm4 # 3aa20 <_sk_srcover_bgra_8888_sse2_lowp+0xab8>
+ .byte 197,253,111,37,40,165,0,0 // vmovdqa 0xa528(%rip),%ymm4 # 3b720 <_sk_srcover_bgra_8888_sse2_lowp+0xb84>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -47600,9 +48243,9 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 76,139,0 // mov (%rax),%r8
.byte 77,137,193 // mov %r8,%r9
.byte 73,255,201 // dec %r9
- .byte 120,7 // js 306a9 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
+ .byte 120,7 // js 312dd <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
.byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2
- .byte 235,22 // jmp 306bf <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
+ .byte 235,22 // jmp 312f3 <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
.byte 77,137,202 // mov %r9,%r10
.byte 73,209,234 // shr %r10
.byte 65,131,225,1 // and $0x1,%r9d
@@ -47615,7 +48258,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,126,91,242 // vcvttps2dq %ymm2,%ymm14
.byte 197,254,91,251 // vcvttps2dq %ymm3,%ymm7
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 30792 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
+ .byte 15,135,180,0,0,0 // ja 313c6 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -47652,7 +48295,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,13,22,255 // vpermps %ymm15,%ymm14,%ymm7
- .byte 233,33,1,0,0 // jmpq 308b3 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
+ .byte 233,33,1,0,0 // jmpq 314e7 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -47721,8 +48364,8 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -47732,7 +48375,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,23,161,0,0 // vmovdqa 0xa117(%rip),%ymm4 # 3aa40 <_sk_srcover_bgra_8888_sse2_lowp+0xad8>
+ .byte 197,253,111,37,227,161,0,0 // vmovdqa 0xa1e3(%rip),%ymm4 # 3b740 <_sk_srcover_bgra_8888_sse2_lowp+0xba4>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -47778,12 +48421,12 @@ _sk_evenly_spaced_2_stop_gradient_hsw_lowp:
.byte 197,124,40,194 // vmovaps %ymm2,%ymm8
.byte 196,98,125,168,195 // vfmadd213ps %ymm3,%ymm0,%ymm8
.byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
.byte 196,66,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 197,125,111,21,64,160,0,0 // vmovdqa 0xa040(%rip),%ymm10 # 3aa60 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8>
+ .byte 197,125,111,21,12,161,0,0 // vmovdqa 0xa10c(%rip),%ymm10 # 3b760 <_sk_srcover_bgra_8888_sse2_lowp+0xbc4>
.byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
.byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
.byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
@@ -47847,7 +48490,7 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 197,252,40,227 // vmovaps %ymm3,%ymm4
.byte 197,252,40,217 // vmovaps %ymm1,%ymm3
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,5,98,152,0,0 // vbroadcastss 0x9862(%rip),%ymm8 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 196,65,116,84,200 // vandps %ymm8,%ymm1,%ymm9
.byte 196,65,100,84,208 // vandps %ymm8,%ymm3,%ymm10
.byte 196,65,108,84,216 // vandps %ymm8,%ymm2,%ymm11
@@ -47861,20 +48504,20 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,45,74,192,192 // vblendvps %ymm12,%ymm8,%ymm10,%ymm8
.byte 196,65,4,94,192 // vdivps %ymm8,%ymm15,%ymm8
.byte 196,65,60,89,208 // vmulps %ymm8,%ymm8,%ymm10
- .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 3af78 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 3af7c <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,124,40,251 // vmovaps %ymm11,%ymm15
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3af84 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,193,52,89,195 // vmulps %ymm11,%ymm9,%ymm0
- .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 3af88 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 197,52,92,208 // vsubps %ymm0,%ymm9,%ymm10
.byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
.byte 196,65,60,89,199 // vmulps %ymm15,%ymm8,%ymm8
@@ -47882,14 +48525,14 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,193,116,194,201,1 // vcmpltps %ymm9,%ymm1,%ymm1
- .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,44,92,216 // vsubps %ymm0,%ymm10,%ymm11
.byte 196,195,125,74,195,16 // vblendvps %ymm1,%ymm11,%ymm0,%ymm0
.byte 196,193,100,194,201,1 // vcmpltps %ymm9,%ymm3,%ymm1
.byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3
.byte 196,227,61,74,203,16 // vblendvps %ymm1,%ymm3,%ymm8,%ymm1
.byte 196,193,108,194,217,1 // vcmpltps %ymm9,%ymm2,%ymm3
- .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 3ae4c <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,208 // vsubps %ymm0,%ymm8,%ymm10
.byte 196,195,125,74,194,48 // vblendvps %ymm3,%ymm10,%ymm0,%ymm0
.byte 196,193,92,194,217,1 // vcmpltps %ymm9,%ymm4,%ymm3
@@ -47935,9 +48578,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 30d07 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 3193b <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 30fcc <_sk_srcover_rgba_8888_hsw_lowp+0x321>
+ .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 31c00 <_sk_srcover_rgba_8888_hsw_lowp+0x321>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47947,10 +48590,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 31a51 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 31a51 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -47959,7 +48602,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 31a51 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47975,7 +48618,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 31a51 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47985,7 +48628,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 31a51 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48005,9 +48648,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,58,156,0,0 // vmovdqa 0x9c3a(%rip),%ymm8 # 3aa80 <_sk_srcover_bgra_8888_sse2_lowp+0xb18>
+ .byte 197,125,111,5,6,157,0,0 // vmovdqa 0x9d06(%rip),%ymm8 # 3b780 <_sk_srcover_bgra_8888_sse2_lowp+0xbe4>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,76,156,0,0 // vpbroadcastw 0x9c4c(%rip),%ymm9 # 3aaa0 <_sk_srcover_bgra_8888_sse2_lowp+0xb38>
+ .byte 196,98,125,121,13,24,157,0,0 // vpbroadcastw 0x9d18(%rip),%ymm9 # 3b7a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc04>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -48046,19 +48689,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 30f2e <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 31008 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
+ .byte 119,26 // ja 31b62 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 31c3c <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 31bf9 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 31bf9 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 31bf9 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -48066,12 +48709,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 31bf9 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 31bf9 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -48110,10 +48753,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255,64,254 // incl -0x2(%rax)
.byte 255 // (bad)
- .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b030fff <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
+ .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b031c33 <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d031007 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
+ .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d031c3b <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -48131,7 +48774,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 3102d <_sk_srcover_rgba_8888_hsw_lowp+0x382>
+ .byte 120,255 // js 31c61 <_sk_srcover_rgba_8888_hsw_lowp+0x382>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -48158,9 +48801,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 310a0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 31cd4 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 31364 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 31f98 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48170,10 +48813,10 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 31dea <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 31dea <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -48182,7 +48825,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 31dea <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48198,7 +48841,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 31dea <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48208,7 +48851,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 31dea <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48228,9 +48871,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,225,152,0,0 // vmovdqa 0x98e1(%rip),%ymm8 # 3aac0 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
+ .byte 197,125,111,5,173,153,0,0 // vmovdqa 0x99ad(%rip),%ymm8 # 3b7c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc24>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
- .byte 196,98,125,121,13,243,152,0,0 // vpbroadcastw 0x98f3(%rip),%ymm9 # 3aae0 <_sk_srcover_bgra_8888_sse2_lowp+0xb78>
+ .byte 196,98,125,121,13,191,153,0,0 // vpbroadcastw 0x99bf(%rip),%ymm9 # 3b7e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc44>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -48269,19 +48912,19 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 312c7 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 313a0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 31efb <_sk_srcover_bgra_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 31fd4 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 31f92 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 31f92 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 31f92 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -48289,12 +48932,12 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 31f92 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 31f92 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -48342,7 +48985,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f0313a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f031fd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -48360,7 +49003,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 313c5 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 31ff9 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48393,13 +49036,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 31492 <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 320c6 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 31460 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 32094 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -48418,10 +49061,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 31429 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 3205d <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 31489 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 320bd <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -48435,7 +49078,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 3141b <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 3204f <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -48466,7 +49109,7 @@ _sk_seed_shader_sse41_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,112,150,0,0 // addps 0x9670(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,21,60,151,0,0 // addps 0x973c(%rip),%xmm2 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -48643,7 +49286,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,181,147,0,0 // movaps 0x93b5(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,129,148,0,0 // movaps 0x9481(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -48654,7 +49297,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,161,147,0,0 // movaps 0x93a1(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,5,109,148,0,0 // movaps 0x946d(%rip),%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -48665,10 +49308,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -48715,7 +49358,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,237,146,0,0 // movdqa 0x92ed(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,185,147,0,0 // movdqa 0x93b9(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -48732,7 +49375,7 @@ HIDDEN _sk_premul_dst_sse41_lowp
FUNCTION(_sk_premul_dst_sse41_lowp)
_sk_premul_dst_sse41_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,182,146,0,0 // movdqa 0x92b6(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,130,147,0,0 // movdqa 0x9382(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -48780,7 +49423,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,84,146,0,0 // movdqa 0x9254(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,32,147,0,0 // movdqa 0x9320(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -48812,7 +49455,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,248,145,0,0 // movdqa 0x91f8(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,111,29,196,146,0,0 // movdqa 0x92c4(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -48844,7 +49487,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,120,145,0,0 // movdqa 0x9178(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,68,146,0,0 // movdqa 0x9244(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -48873,7 +49516,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,3,145,0,0 // movdqa 0x9103(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,207,145,0,0 // movdqa 0x91cf(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -48894,7 +49537,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,186,144,0,0 // movdqa 0x90ba(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,134,145,0,0 // movdqa 0x9186(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -48915,7 +49558,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,113,144,0,0 // movdqa 0x9071(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,61,145,0,0 // movdqa 0x913d(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -48938,7 +49581,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,26,144,0,0 // movdqa 0x901a(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,230,144,0,0 // movdqa 0x90e6(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -48963,7 +49606,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,192,143,0,0 // movdqa 0x8fc0(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,140,144,0,0 // movdqa 0x908c(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -48992,7 +49635,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,70,143,0,0 // movdqa 0x8f46(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,18,144,0,0 // movdqa 0x9012(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -49019,7 +49662,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,223,142,0,0 // movdqa 0x8edf(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,171,143,0,0 // movdqa 0x8fab(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -49038,7 +49681,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,158,142,0,0 // movdqa 0x8e9e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,106,143,0,0 // movdqa 0x8f6a(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49081,7 +49724,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,227,141,0,0 // movdqa 0x8de3(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,175,142,0,0 // movdqa 0x8eaf(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -49101,7 +49744,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,157,141,0,0 // movdqa 0x8d9d(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,105,142,0,0 // movdqa 0x8e69(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49133,7 +49776,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,27,141,0,0 // movdqa 0x8d1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,231,141,0,0 // movdqa 0x8de7(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -49176,7 +49819,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,98,140,0,0 // movdqa 0x8c62(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,46,141,0,0 // movdqa 0x8d2e(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49220,7 +49863,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,165,139,0,0 // movdqa 0x8ba5(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,113,140,0,0 // movdqa 0x8c71(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49264,10 +49907,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,232,138,0,0 // movdqa 0x8ae8(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,180,139,0,0 // movdqa 0x8bb4(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,53,146,0,0 // movdqa 0x9235(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
+ .byte 102,68,15,111,21,1,147,0,0 // movdqa 0x9301(%rip),%xmm10 # 3bf50 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -49309,10 +49952,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,36,138,0,0 // movdqa 0x8a24(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,240,138,0,0 // movdqa 0x8af0(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,113,145,0,0 // movdqa 0x9171(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
+ .byte 102,68,15,111,21,61,146,0,0 // movdqa 0x923d(%rip),%xmm10 # 3bf50 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -49348,14 +49991,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,127,137,0,0 // movdqa 0x897f(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,29,75,138,0,0 // movdqa 0x8a4b(%rip),%xmm11 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,200,144,0,0 // movdqa 0x90c8(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,13,148,145,0,0 // movdqa 0x9194(%rip),%xmm9 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -49402,7 +50045,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,112,136,0,0 // movdqa 0x8870(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,60,137,0,0 // movdqa 0x893c(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -49441,7 +50084,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,211,135,0,0 // movdqa 0x87d3(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,29,159,136,0,0 // movdqa 0x889f(%rip),%xmm11 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -49453,7 +50096,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,4,143,0,0 // movdqa 0x8f04(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,13,208,143,0,0 // movdqa 0x8fd0(%rip),%xmm9 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -49499,7 +50142,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,182,134,0,0 // movdqa 0x86b6(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,130,135,0,0 // movdqa 0x8782(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -49542,49 +50185,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 324fc <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 33130 <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 325d4 <_sk_load_8888_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 33208 <_sk_load_8888_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 33189 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 33189 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 33189 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,19,141,0,0 // movdqa 0x8d13(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,5,223,141,0,0 // movdqa 0x8ddf(%rip),%xmm0 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,115,133,0,0 // movdqa 0x8573(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,63,134,0,0 // movdqa 0x863f(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,236,140,0,0 // movdqa 0x8cec(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,21,184,141,0,0 // movdqa 0x8db8(%rip),%xmm10 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,217,140,0,0 // movdqa 0x8cd9(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,165,141,0,0 // movdqa 0x8da5(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -49600,7 +50243,7 @@ _sk_load_8888_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 325e1 <_sk_load_8888_sse41_lowp+0x129>
+ .byte 123,255 // jnp 33215 <_sk_load_8888_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49622,49 +50265,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 32634 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 33268 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3270c <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 33340 <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 332c1 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 332c1 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 332c1 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,219,139,0,0 // movdqa 0x8bdb(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,37,167,140,0,0 // movdqa 0x8ca7(%rip),%xmm4 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,59,132,0,0 // movdqa 0x843b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,7,133,0,0 // movdqa 0x8507(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,180,139,0,0 // movdqa 0x8bb4(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,21,128,140,0,0 // movdqa 0x8c80(%rip),%xmm10 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,161,139,0,0 // movdqa 0x8ba1(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,109,140,0,0 // movdqa 0x8c6d(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -49680,7 +50323,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 32719 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 3334d <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49717,20 +50360,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 327ae <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 333e2 <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 327f4 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 33428 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 33421 <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 33421 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 33421 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -49774,49 +50417,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 32854 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 33488 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3292c <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 33560 <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 334e1 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 334e1 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 334e1 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,187,137,0,0 // movdqa 0x89bb(%rip),%xmm2 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,21,135,138,0,0 // movdqa 0x8a87(%rip),%xmm2 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,27,130,0,0 // movdqa 0x821b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,231,130,0,0 // movdqa 0x82e7(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,148,137,0,0 // movdqa 0x8994(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,21,96,138,0,0 // movdqa 0x8a60(%rip),%xmm10 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,129,137,0,0 // movdqa 0x8981(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,77,138,0,0 // movdqa 0x8a4d(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -49832,7 +50475,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 32939 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 3356d <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49854,49 +50497,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 3298c <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 335c0 <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32a64 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 33698 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 33619 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 33619 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 33619 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,131,136,0,0 // movdqa 0x8883(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,53,79,137,0,0 // movdqa 0x894f(%rip),%xmm6 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,227,128,0,0 // movdqa 0x80e3(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,175,129,0,0 // movdqa 0x81af(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,92,136,0,0 // movdqa 0x885c(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,21,40,137,0,0 // movdqa 0x8928(%rip),%xmm10 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,73,136,0,0 // movdqa 0x8849(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,21,137,0,0 // movdqa 0x8915(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -49912,7 +50555,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 32a71 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 336a5 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49949,20 +50592,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 32b06 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 3373a <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32b4c <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 33780 <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 33779 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 33779 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 33779 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -50065,17 +50708,17 @@ _sk_gather_8888_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,76,126,0,0 // movdqa 0x7e4c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,24,127,0,0 // movdqa 0x7f18(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,197,133,0,0 // movdqa 0x85c5(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,21,145,134,0,0 // movdqa 0x8691(%rip),%xmm10 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,178,133,0,0 // movdqa 0x85b2(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,126,134,0,0 // movdqa 0x867e(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -50160,17 +50803,17 @@ _sk_gather_bgra_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,180,124,0,0 // movdqa 0x7cb4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,128,125,0,0 // movdqa 0x7d80(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,45,132,0,0 // movdqa 0x842d(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,21,249,132,0,0 // movdqa 0x84f9(%rip),%xmm10 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,26,132,0,0 // movdqa 0x841a(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,21,230,132,0,0 // movdqa 0x84e6(%rip),%xmm10 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -50196,23 +50839,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32ed4 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 33b08 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32f84 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 33bb8 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 33b52 <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 33b52 <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 33b52 <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -50221,11 +50864,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,113,131,0,0 // pand 0x8371(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,29,61,132,0,0 // pand 0x843d(%rip),%xmm3 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,112,131,0,0 // pand 0x8370(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,15,111,21,120,131,0,0 // movdqa 0x8378(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,219,13,60,132,0,0 // pand 0x843c(%rip),%xmm1 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,15,111,21,68,132,0,0 // movdqa 0x8444(%rip),%xmm2 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -50238,7 +50881,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,110,123,0,0 // movaps 0x7b6e(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,58,124,0,0 // movaps 0x7c3a(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -50249,7 +50892,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 32f99 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 33bcd <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50268,23 +50911,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32fdc <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 33c10 <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 3308c <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 33cc0 <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 33c5a <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 33c5a <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 33c5a <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -50293,11 +50936,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,105,130,0,0 // pand 0x8269(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,61,53,131,0,0 // pand 0x8335(%rip),%xmm7 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,104,130,0,0 // pand 0x8268(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,15,111,53,112,130,0,0 // movdqa 0x8270(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,219,45,52,131,0,0 // pand 0x8334(%rip),%xmm5 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,15,111,53,60,131,0,0 // movdqa 0x833c(%rip),%xmm6 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -50310,7 +50953,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,102,122,0,0 // movaps 0x7a66(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,61,50,123,0,0 // movaps 0x7b32(%rip),%xmm7 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -50321,7 +50964,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 330a1 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 33cd5 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50338,10 +50981,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,4,130,0,0 // pand 0x8204(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,68,15,219,5,208,130,0,0 // pand 0x82d0(%rip),%xmm8 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,0,130,0,0 // pand 0x8200(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
+ .byte 102,68,15,219,13,204,130,0,0 // pand 0x82cc(%rip),%xmm9 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -50350,19 +50993,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3311c <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 33d50 <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 3315c <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 33d90 <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 33d8a <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 33d8a <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 33d8a <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -50382,7 +51025,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 3316d <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 33da1 <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -50459,11 +51102,11 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,196,192,7 // pinsrw $0x7,%eax,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,14,128,0,0 // pand 0x800e(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,29,218,128,0,0 // pand 0x80da(%rip),%xmm3 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,13,128,0,0 // pand 0x800d(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,15,111,21,21,128,0,0 // movdqa 0x8015(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,219,13,217,128,0,0 // pand 0x80d9(%rip),%xmm1 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,15,111,21,225,128,0,0 // movdqa 0x80e1(%rip),%xmm2 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -50476,7 +51119,7 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,11,120,0,0 // movaps 0x780b(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,215,120,0,0 // movaps 0x78d7(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -50497,23 +51140,23 @@ _sk_load_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 3332c <_sk_load_4444_sse41_lowp+0x3d>
+ .byte 119,35 // ja 33f60 <_sk_load_4444_sse41_lowp+0x3d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 333e8 <_sk_load_4444_sse41_lowp+0xf9>
+ .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 3401c <_sk_load_4444_sse41_lowp+0xf9>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,76 // jmp 33fac <_sk_load_4444_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,68 // jmp 33fac <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,192,252 // pblendw $0xfc,%xmm0,%xmm8
- .byte 235,41 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,41 // jmp 33fac <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -50524,7 +51167,7 @@ _sk_load_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,92,127,0,0 // movdqa 0x7f5c(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,15,111,5,40,128,0,0 // movdqa 0x8028(%rip),%xmm0 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -50572,23 +51215,23 @@ _sk_load_4444_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 33441 <_sk_load_4444_dst_sse41_lowp+0x3d>
+ .byte 119,35 // ja 34075 <_sk_load_4444_dst_sse41_lowp+0x3d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 334fc <_sk_load_4444_dst_sse41_lowp+0xf8>
+ .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 34130 <_sk_load_4444_dst_sse41_lowp+0xf8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,76 // jmp 340c1 <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,68 // jmp 340c1 <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,196,252 // pblendw $0xfc,%xmm4,%xmm8
- .byte 235,41 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,41 // jmp 340c1 <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -50599,7 +51242,7 @@ _sk_load_4444_dst_sse41_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,71,126,0,0 // movdqa 0x7e47(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,15,111,37,19,127,0,0 // movdqa 0x7f13(%rip),%xmm4 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -50644,12 +51287,12 @@ _sk_store_4444_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,196,125,0,0 // pand 0x7dc4(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,68,15,219,5,144,126,0,0 // pand 0x7e90(%rip),%xmm8 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1464>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,192,125,0,0 // pand 0x7dc0(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
+ .byte 102,68,15,219,13,140,126,0,0 // pand 0x7e8c(%rip),%xmm9 # 3c010 <_sk_srcover_bgra_8888_sse2_lowp+0x1474>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,194,125,0,0 // movdqa 0x7dc2(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
+ .byte 102,68,15,111,21,142,126,0,0 // movdqa 0x7e8e(%rip),%xmm10 # 3c020 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -50659,19 +51302,19 @@ _sk_store_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3359f <_sk_store_4444_sse41_lowp+0x87>
+ .byte 119,29 // ja 341d3 <_sk_store_4444_sse41_lowp+0x87>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 335e0 <_sk_store_4444_sse41_lowp+0xc8>
+ .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 34214 <_sk_store_4444_sse41_lowp+0xc8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,58 // jmp 3420d <_sk_store_4444_sse41_lowp+0xc1>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,50 // jmp 3420d <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,33 // jmp 3420d <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -50771,7 +51414,7 @@ _sk_gather_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,200,123,0,0 // movdqa 0x7bc8(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,15,111,5,148,124,0,0 // movdqa 0x7c94(%rip),%xmm0 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -50809,18 +51452,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 337ba <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 343ee <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 33838 <_sk_load_a8_sse41_lowp+0xb7>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 3446c <_sk_load_a8_sse41_lowp+0xb7>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 34452 <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 34452 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -50828,7 +51471,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 34452 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -50839,14 +51482,14 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,202,114,0,0 // pand 0x72ca(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,29,150,115,0,0 // pand 0x7396(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 33839 <_sk_load_a8_sse41_lowp+0xb8>
+ .byte 119,255 // ja 3446d <_sk_load_a8_sse41_lowp+0xb8>
.byte 255 // (bad)
.byte 255,154,255,255,255,139 // lcall *-0x74000001(%rdx)
.byte 255 // (bad)
@@ -50875,18 +51518,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3388d <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 344c1 <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 33908 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 3453c <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 34525 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 34525 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -50894,7 +51537,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 34525 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -50905,13 +51548,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,247,113,0,0 // pand 0x71f7(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,61,195,114,0,0 // pand 0x72c3(%rip),%xmm7 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 33909 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 3453d <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -50942,28 +51585,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 33958 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 3458c <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 339c8 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 345fc <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 345f5 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,217,120,0,0 // pshufb 0x78d9(%rip),%xmm8 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
+ .byte 102,68,15,56,0,5,165,121,0,0 // pshufb 0x79a5(%rip),%xmm8 # 3bf40 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 345f5 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,121,113,0,0 // pshufb 0x7179(%rip),%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
+ .byte 102,68,15,56,0,5,69,114,0,0 // pshufb 0x7245(%rip),%xmm8 # 3b800 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 345f5 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,85,113,0,0 // pshufb 0x7155(%rip),%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
+ .byte 102,68,15,56,0,5,33,114,0,0 // pshufb 0x7221(%rip),%xmm8 # 3b810 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -51076,18 +51719,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33b4a <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 3477e <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 33bcc <_sk_load_g8_sse41_lowp+0xbb>
+ .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 34800 <_sk_load_g8_sse41_lowp+0xbb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 347e2 <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 347e2 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -51095,7 +51738,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 347e2 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -51106,14 +51749,14 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,58,111,0,0 // pand 0x6f3a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,5,6,112,0,0 // pand 0x7006(%rip),%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,49,111,0,0 // movaps 0x6f31(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,253,111,0,0 // movaps 0x6ffd(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 115,255 // jae 33bcd <_sk_load_g8_sse41_lowp+0xbc>
+ .byte 115,255 // jae 34801 <_sk_load_g8_sse41_lowp+0xbc>
.byte 255 // (bad)
.byte 255,150,255,255,255,135 // callq *-0x78000001(%rsi)
.byte 255 // (bad)
@@ -51142,18 +51785,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33c21 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 34855 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 33ca0 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 348d4 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 348b9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 348b9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -51161,7 +51804,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 348b9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -51172,13 +51815,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,99,110,0,0 // pand 0x6e63(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,37,47,111,0,0 // pand 0x6f2f(%rip),%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,90,110,0,0 // movaps 0x6e5a(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,61,38,111,0,0 // movaps 0x6f26(%rip),%xmm7 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 33ca1 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 348d5 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -51200,10 +51843,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,104,118,0,0 // pmullw 0x7668(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- .byte 102,15,213,13,112,118,0,0 // pmullw 0x7670(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
+ .byte 102,15,213,5,52,119,0,0 // pmullw 0x7734(%rip),%xmm0 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1494>
+ .byte 102,15,213,13,60,119,0,0 // pmullw 0x773c(%rip),%xmm1 # 3c040 <_sk_srcover_bgra_8888_sse2_lowp+0x14a4>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,116,118,0,0 // pmullw 0x7674(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
+ .byte 102,15,213,29,64,119,0,0 // pmullw 0x7740(%rip),%xmm3 # 3c050 <_sk_srcover_bgra_8888_sse2_lowp+0x14b4>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51279,7 +51922,7 @@ _sk_gather_g8_sse41_lowp:
.byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,221,108,0,0 // movaps 0x6cdd(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,169,109,0,0 // movaps 0x6da9(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -51295,14 +51938,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,142,108,0,0 // movdqa 0x6c8e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,90,109,0,0 // movdqa 0x6d5a(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51323,13 +51966,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,27,108,0,0 // movdqa 0x6c1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,231,108,0,0 // movdqa 0x6ce7(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51369,18 +52012,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 33f8c <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 34bc0 <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 34054 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 34c88 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 34c2f <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 34c2f <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -51388,7 +52031,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 34c2f <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -51399,9 +52042,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,236,106,0,0 // pand 0x6aec(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,219,5,184,107,0,0 // pand 0x6bb8(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,222,106,0,0 // movdqa 0x6ade(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,170,107,0,0 // movdqa 0x6baa(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51426,7 +52069,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 34069 <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 34c9d <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -51444,18 +52087,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 340ab <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 34cdf <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 341b4 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 34de8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 34d4e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 34d4e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -51463,7 +52106,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 34d4e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -51474,8 +52117,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,205,105,0,0 // pand 0x69cd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
- .byte 102,68,15,111,21,196,105,0,0 // movdqa 0x69c4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,219,5,153,106,0,0 // pand 0x6a99(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,144,106,0,0 // movdqa 0x6a90(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -51505,7 +52148,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 341b4 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 34de8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -51539,23 +52182,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 34212 <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 34e46 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 3436c <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 34fa0 <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 34e92 <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 34e92 <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 34e92 <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51564,11 +52207,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,48,112,0,0 // pand 0x7030(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,5,252,112,0,0 // pand 0x70fc(%rip),%xmm0 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,44,112,0,0 // pand 0x702c(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,68,15,111,29,51,112,0,0 // movdqa 0x7033(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,219,21,248,112,0,0 // pand 0x70f8(%rip),%xmm10 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,68,15,111,29,255,112,0,0 // movdqa 0x70ff(%rip),%xmm11 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -51580,7 +52223,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,145,111,0,0 // movdqa 0x6f91(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,15,111,5,93,112,0,0 // movdqa 0x705d(%rip),%xmm0 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -51593,7 +52236,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,217,103,0,0 // movdqa 0x67d9(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,111,5,165,104,0,0 // movdqa 0x68a5(%rip),%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -51647,23 +52290,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 343ca <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 34ffe <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 34570 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 351a4 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 3504a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 3504a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 3504a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51672,11 +52315,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,120,110,0,0 // pand 0x6e78(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,5,68,111,0,0 // pand 0x6f44(%rip),%xmm0 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,116,110,0,0 // pand 0x6e74(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,68,15,111,29,123,110,0,0 // movdqa 0x6e7b(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,219,21,64,111,0,0 // pand 0x6f40(%rip),%xmm10 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,68,15,111,29,71,111,0,0 // movdqa 0x6f47(%rip),%xmm11 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -51688,7 +52331,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,217,109,0,0 // movdqa 0x6dd9(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,15,111,5,165,110,0,0 // movdqa 0x6ea5(%rip),%xmm0 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -51700,7 +52343,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,37,102,0,0 // movdqa 0x6625(%rip),%xmm13 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,45,241,102,0,0 // movdqa 0x66f1(%rip),%xmm13 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -51757,7 +52400,7 @@ _sk_clamp_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,176,101,0,0 // movaps 0x65b0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,124,102,0,0 // movaps 0x667c(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51774,7 +52417,7 @@ _sk_repeat_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,122,101,0,0 // movaps 0x657a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,70,102,0,0 // movaps 0x6646(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51784,10 +52427,10 @@ HIDDEN _sk_mirror_x_1_sse41_lowp
.globl _sk_mirror_x_1_sse41_lowp
FUNCTION(_sk_mirror_x_1_sse41_lowp)
_sk_mirror_x_1_sse41_lowp:
- .byte 68,15,40,5,198,101,0,0 // movaps 0x65c6(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,40,5,146,102,0,0 // movaps 0x6692(%rip),%xmm8 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,13,70,101,0,0 // movaps 0x6546(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,13,18,102,0,0 // movaps 0x6612(%rip),%xmm9 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 68,15,89,200 // mulps %xmm0,%xmm9
@@ -51799,13 +52442,13 @@ _sk_mirror_x_1_sse41_lowp:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,60,106,0,0 // movaps 0x6a3c(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 68,15,40,5,8,107,0,0 // movaps 0x6b08(%rip),%xmm8 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,0,101,0,0 // movaps 0x6500(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,204,101,0,0 // movaps 0x65cc(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51832,7 +52475,7 @@ _sk_gradient_sse41_lowp:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 72,131,249,2 // cmp $0x2,%rcx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,57 // jb 346d1 <_sk_gradient_sse41_lowp+0x75>
+ .byte 114,57 // jb 35305 <_sk_gradient_sse41_lowp+0x75>
.byte 72,139,80,72 // mov 0x48(%rax),%rdx
.byte 72,255,201 // dec %rcx
.byte 72,131,194,4 // add $0x4,%rdx
@@ -51847,7 +52490,7 @@ _sk_gradient_sse41_lowp:
.byte 102,15,250,218 // psubd %xmm2,%xmm3
.byte 72,131,194,4 // add $0x4,%rdx
.byte 72,255,201 // dec %rcx
- .byte 117,219 // jne 346ac <_sk_gradient_sse41_lowp+0x50>
+ .byte 117,219 // jne 352e0 <_sk_gradient_sse41_lowp+0x50>
.byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx
.byte 65,137,221 // mov %ebx,%r13d
.byte 72,193,235,32 // shr $0x20,%rbx
@@ -51926,14 +52569,14 @@ _sk_gradient_sse41_lowp:
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,61,131,99,0,0 // movaps 0x6383(%rip),%xmm7 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 15,40,61,79,100,0,0 // movaps 0x644f(%rip),%xmm7 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 68,15,89,239 // mulps %xmm7,%xmm13
.byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,40,61,132,98,0,0 // movaps 0x6284(%rip),%xmm15 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,61,80,99,0,0 // movaps 0x6350(%rip),%xmm15 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 65,15,88,223 // addps %xmm15,%xmm3
.byte 243,65,15,91,245 // cvttps2dq %xmm13,%xmm6
- .byte 102,68,15,111,45,158,105,0,0 // movdqa 0x699e(%rip),%xmm13 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,45,106,106,0,0 // movdqa 0x6a6a(%rip),%xmm13 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,197 // pshufb %xmm13,%xmm8
@@ -52037,9 +52680,9 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 34aaa <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
+ .byte 120,7 // js 356de <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 34abf <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
+ .byte 235,21 // jmp 356f3 <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -52177,14 +52820,14 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,100,36,176 // movaps -0x50(%rsp),%xmm4
.byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 15,40,5,96,94,0,0 // movaps 0x5e60(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 15,40,5,44,95,0,0 // movaps 0x5f2c(%rip),%xmm0 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,40,53,97,93,0,0 // movaps 0x5d61(%rip),%xmm14 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,53,45,94,0,0 // movaps 0x5e2d(%rip),%xmm14 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 65,15,88,222 // addps %xmm14,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,111,5,125,100,0,0 // movdqa 0x647d(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,5,73,101,0,0 // movdqa 0x6549(%rip),%xmm0 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 243,69,15,91,192 // cvttps2dq %xmm8,%xmm8
.byte 102,68,15,56,0,192 // pshufb %xmm0,%xmm8
@@ -52194,7 +52837,7 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 68,15,89,203 // mulps %xmm3,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,40,13,16,94,0,0 // movaps 0x5e10(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 15,40,13,220,94,0,0 // movaps 0x5edc(%rip),%xmm1 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -52263,14 +52906,14 @@ _sk_evenly_spaced_2_stop_gradient_sse41_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,10,93,0,0 // movaps 0x5d0a(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,21,214,93,0,0 // movaps 0x5dd6(%rip),%xmm10 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,37,10,92,0,0 // movaps 0x5c0a(%rip),%xmm12 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,37,214,92,0,0 // movaps 0x5cd6(%rip),%xmm12 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,88,220 // addps %xmm12,%xmm3
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,68,15,111,29,37,99,0,0 // movdqa 0x6325(%rip),%xmm11 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,68,15,111,29,241,99,0,0 // movdqa 0x63f1(%rip),%xmm11 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,195 // pshufb %xmm11,%xmm8
@@ -52343,7 +52986,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 15,40,251 // movaps %xmm3,%xmm7
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,40,37,251,95,0,0 // movaps 0x5ffb(%rip),%xmm4 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 15,40,37,199,96,0,0 // movaps 0x60c7(%rip),%xmm4 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
.byte 68,15,40,233 // movaps %xmm1,%xmm13
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -52368,18 +53011,18 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 69,15,94,251 // divps %xmm11,%xmm15
.byte 65,15,40,199 // movaps %xmm15,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,29,251,95,0,0 // movaps 0x5ffb(%rip),%xmm11 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
+ .byte 68,15,40,29,199,96,0,0 // movaps 0x60c7(%rip),%xmm11 # 3bde0 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
.byte 68,15,40,224 // movaps %xmm0,%xmm12
.byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,37,251,95,0,0 // addps 0x5ffb(%rip),%xmm12 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,88,37,199,96,0,0 // addps 0x60c7(%rip),%xmm12 # 3bdf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,45,0,96,0,0 // movaps 0x6000(%rip),%xmm5 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 15,40,45,204,96,0,0 // movaps 0x60cc(%rip),%xmm5 # 3be00 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
.byte 68,15,88,229 // addps %xmm5,%xmm12
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,37,1,96,0,0 // movaps 0x6001(%rip),%xmm4 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 15,40,37,205,96,0,0 // movaps 0x60cd(%rip),%xmm4 # 3be10 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
.byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 15,40,21,2,96,0,0 // movaps 0x6002(%rip),%xmm2 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 15,40,21,206,96,0,0 // movaps 0x60ce(%rip),%xmm2 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,194 // movaps %xmm10,%xmm0
@@ -52388,7 +53031,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,29,170,95,0,0 // addps 0x5faa(%rip),%xmm11 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,88,29,118,96,0,0 // addps 0x6076(%rip),%xmm11 # 3bdf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 68,15,88,221 // addps %xmm5,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
@@ -52399,7 +53042,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,194,193,1 // cmpltps %xmm9,%xmm8
- .byte 15,40,21,200,89,0,0 // movaps 0x59c8(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,21,148,90,0,0 // movaps 0x5a94(%rip),%xmm2 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,192 // movaps %xmm8,%xmm0
@@ -52410,7 +53053,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0
- .byte 15,40,13,166,89,0,0 // movaps 0x59a6(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 15,40,13,114,90,0,0 // movaps 0x5a72(%rip),%xmm1 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
@@ -52464,48 +53107,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 35276 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 35eaa <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 35470 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
+ .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 360a4 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 35f03 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 35f03 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 35f03 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,153,95,0,0 // movdqa 0x5f99(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,37,101,96,0,0 // movdqa 0x6065(%rip),%xmm4 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,249,87,0,0 // movdqa 0x57f9(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,37,197,88,0,0 // movdqa 0x58c5(%rip),%xmm12 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,114,95,0,0 // movdqa 0x5f72(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,13,62,96,0,0 // movdqa 0x603e(%rip),%xmm9 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,95,95,0,0 // movdqa 0x5f5f(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,13,43,96,0,0 // movdqa 0x602b(%rip),%xmm9 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -52547,19 +53190,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 35419 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 3548c <_sk_srcover_rgba_8888_sse41_lowp+0x261>
+ .byte 119,24 // ja 3604d <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 360c0 <_sk_srcover_rgba_8888_sse41_lowp+0x261>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 3608c <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 3608c <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 3608c <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -52576,7 +53219,7 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 255,38 // jmpq *(%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a03547b <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
+ .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a0360af <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255,80,254 // callq *-0x2(%rax)
@@ -52615,48 +53258,48 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 354f3 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 36127 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 356f0 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 36324 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 36180 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 36180 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 36180 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,28,93,0,0 // movdqa 0x5d1c(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
+ .byte 102,15,111,53,232,93,0,0 // movdqa 0x5de8(%rip),%xmm6 # 3bf70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,124,85,0,0 // movdqa 0x557c(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,37,72,86,0,0 // movdqa 0x5648(%rip),%xmm12 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,245,92,0,0 // movdqa 0x5cf5(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
+ .byte 102,68,15,111,13,193,93,0,0 // movdqa 0x5dc1(%rip),%xmm9 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,226,92,0,0 // movdqa 0x5ce2(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
+ .byte 102,68,15,111,13,174,93,0,0 // movdqa 0x5dae(%rip),%xmm9 # 3bf90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
.byte 102,65,15,56,0,225 // pshufb %xmm9,%xmm4
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -52698,19 +53341,19 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 35696 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 3570c <_sk_srcover_bgra_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 362ca <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 36340 <_sk_srcover_bgra_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 36309 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 36309 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 36309 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -52775,13 +53418,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 357de <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 36412 <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 357ac <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 363e0 <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -52800,10 +53443,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 35775 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 363a9 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 357d5 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 36409 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -52817,7 +53460,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 35767 <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 3639b <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -52848,7 +53491,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,36,83,0,0 // addps 0x5324(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,21,240,83,0,0 // addps 0x53f0(%rip),%xmm2 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -53025,7 +53668,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,105,80,0,0 // movaps 0x5069(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,53,81,0,0 // movaps 0x5135(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -53036,7 +53679,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,85,80,0,0 // movaps 0x5055(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,5,33,81,0,0 // movaps 0x5121(%rip),%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -53047,10 +53690,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -53076,7 +53719,7 @@ HIDDEN _sk_clamp_a_sse2_lowp
.globl _sk_clamp_a_sse2_lowp
FUNCTION(_sk_clamp_a_sse2_lowp)
_sk_clamp_a_sse2_lowp:
- .byte 102,68,15,111,5,59,87,0,0 // movdqa 0x573b(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,5,7,88,0,0 // movdqa 0x5807(%rip),%xmm8 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
@@ -53105,7 +53748,7 @@ HIDDEN _sk_clamp_a_dst_sse2_lowp
.globl _sk_clamp_a_dst_sse2_lowp
FUNCTION(_sk_clamp_a_dst_sse2_lowp)
_sk_clamp_a_dst_sse2_lowp:
- .byte 102,68,15,111,5,197,86,0,0 // movdqa 0x56c5(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,5,145,87,0,0 // movdqa 0x5791(%rip),%xmm8 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
@@ -53135,7 +53778,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,219,78,0,0 // movdqa 0x4edb(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,167,79,0,0 // movdqa 0x4fa7(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -53152,7 +53795,7 @@ HIDDEN _sk_premul_dst_sse2_lowp
FUNCTION(_sk_premul_dst_sse2_lowp)
_sk_premul_dst_sse2_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,164,78,0,0 // movdqa 0x4ea4(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,112,79,0,0 // movdqa 0x4f70(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -53200,7 +53843,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,66,78,0,0 // movdqa 0x4e42(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,14,79,0,0 // movdqa 0x4f0e(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -53232,7 +53875,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,230,77,0,0 // movdqa 0x4de6(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,111,29,178,78,0,0 // movdqa 0x4eb2(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -53264,7 +53907,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,102,77,0,0 // movdqa 0x4d66(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,50,78,0,0 // movdqa 0x4e32(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -53293,7 +53936,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,241,76,0,0 // movdqa 0x4cf1(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,189,77,0,0 // movdqa 0x4dbd(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -53314,7 +53957,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,168,76,0,0 // movdqa 0x4ca8(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,116,77,0,0 // movdqa 0x4d74(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -53335,7 +53978,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,95,76,0,0 // movdqa 0x4c5f(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,43,77,0,0 // movdqa 0x4d2b(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -53358,7 +54001,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,8,76,0,0 // movdqa 0x4c08(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,212,76,0,0 // movdqa 0x4cd4(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -53383,7 +54026,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,174,75,0,0 // movdqa 0x4bae(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,122,76,0,0 // movdqa 0x4c7a(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -53412,7 +54055,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,52,75,0,0 // movdqa 0x4b34(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,0,76,0,0 // movdqa 0x4c00(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -53439,7 +54082,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,205,74,0,0 // movdqa 0x4acd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,153,75,0,0 // movdqa 0x4b99(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -53458,7 +54101,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,140,74,0,0 // movdqa 0x4a8c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,88,75,0,0 // movdqa 0x4b58(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -53503,12 +54146,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,56,82,0,0 // movdqa 0x5238(%rip),%xmm10 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
+ .byte 102,68,15,111,21,4,83,0,0 // movdqa 0x5304(%rip),%xmm10 # 3c060 <_sk_srcover_bgra_8888_sse2_lowp+0x14c4>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,172,73,0,0 // movdqa 0x49ac(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,29,120,74,0,0 // movdqa 0x4a78(%rip),%xmm11 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -53547,7 +54190,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,12,73,0,0 // movdqa 0x490c(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,216,73,0,0 // movdqa 0x49d8(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -53579,7 +54222,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,138,72,0,0 // movdqa 0x488a(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,86,73,0,0 // movdqa 0x4956(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -53621,7 +54264,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,69,79,0,0 // movdqa 0x4f45(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,13,17,80,0,0 // movdqa 0x5011(%rip),%xmm9 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -53630,7 +54273,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,164,71,0,0 // movdqa 0x47a4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,112,72,0,0 // movdqa 0x4870(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -53686,7 +54329,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,28,78,0,0 // movdqa 0x4e1c(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,13,232,78,0,0 // movdqa 0x4ee8(%rip),%xmm9 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -53695,7 +54338,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,123,70,0,0 // movdqa 0x467b(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,71,71,0,0 // movdqa 0x4747(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -53751,7 +54394,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,243,76,0,0 // movdqa 0x4cf3(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,13,191,77,0,0 // movdqa 0x4dbf(%rip),%xmm9 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -53760,10 +54403,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,82,69,0,0 // movdqa 0x4552(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,30,70,0,0 // movdqa 0x461e(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,159,76,0,0 // movdqa 0x4c9f(%rip),%xmm11 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
+ .byte 102,68,15,111,29,107,77,0,0 // movdqa 0x4d6b(%rip),%xmm11 # 3bf50 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -53818,10 +54461,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,79,68,0,0 // movdqa 0x444f(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,27,69,0,0 // movdqa 0x451b(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,156,75,0,0 // movdqa 0x4b9c(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
+ .byte 102,68,15,111,21,104,76,0,0 // movdqa 0x4c68(%rip),%xmm10 # 3bf50 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -53857,7 +54500,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,171,67,0,0 // movdqa 0x43ab(%rip),%xmm2 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,111,21,119,68,0,0 // movdqa 0x4477(%rip),%xmm2 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -53870,7 +54513,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,215,74,0,0 // movdqa 0x4ad7(%rip),%xmm2 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,15,111,21,163,75,0,0 // movdqa 0x4ba3(%rip),%xmm2 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -53889,7 +54532,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,10,67,0,0 // paddw 0x430a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,253,5,214,67,0,0 // paddw 0x43d6(%rip),%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -53912,7 +54555,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,149,66,0,0 // paddw 0x4295(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,253,13,97,67,0,0 // paddw 0x4361(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -53934,7 +54577,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,37,66,0,0 // movdqa 0x4225(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,241,66,0,0 // movdqa 0x42f1(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -53962,7 +54605,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,182,65,0,0 // movdqa 0x41b6(%rip),%xmm6 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,111,53,130,66,0,0 // movdqa 0x4282(%rip),%xmm6 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -53984,7 +54627,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,186,72,0,0 // movdqa 0x48ba(%rip),%xmm1 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,15,111,13,134,73,0,0 // movdqa 0x4986(%rip),%xmm1 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -54011,7 +54654,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,57,72,0,0 // movdqa 0x4839(%rip),%xmm7 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,15,111,61,5,73,0,0 // movdqa 0x4905(%rip),%xmm7 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -54071,27 +54714,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36b3d <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 37771 <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 36c3c <_sk_load_8888_sse2_lowp+0x143>
+ .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 37870 <_sk_load_8888_sse2_lowp+0x143>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 377d7 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 377d7 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 377d7 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -54108,7 +54751,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,35,63,0,0 // movdqa 0x3f23(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,239,63,0,0 // movdqa 0x3fef(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54165,27 +54808,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36c9c <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 378d0 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36d98 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 379cc <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 37936 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 37936 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 37936 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -54202,7 +54845,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,196,61,0,0 // movdqa 0x3dc4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,144,62,0,0 // movdqa 0x3e90(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -54270,21 +54913,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 36e37 <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 37a6b <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 36e88 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37abc <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 37ab6 <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 37ab6 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 37ab6 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -54329,27 +54972,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36ee8 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 37b1c <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36fe4 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37c18 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 37b82 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 37b82 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 37b82 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -54366,7 +55009,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,120,59,0,0 // movdqa 0x3b78(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,68,60,0,0 // movdqa 0x3c44(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54419,27 +55062,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 37044 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 37c78 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37140 <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37d74 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 37cde <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 37cde <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 37cde <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -54456,7 +55099,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,28,58,0,0 // movdqa 0x3a1c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,232,58,0,0 // movdqa 0x3ae8(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -54524,21 +55167,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 371df <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 37e13 <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37230 <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37e64 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 37e5e <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 37e5e <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 37e5e <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -54652,7 +55295,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,56,55,0,0 // movdqa 0x3738(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,4,56,0,0 // movdqa 0x3804(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54762,7 +55405,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,89,53,0,0 // movdqa 0x3559(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,37,54,0,0 // movdqa 0x3625(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54803,23 +55446,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 37646 <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 3827a <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 376f0 <_sk_load_565_sse2_lowp+0xe6>
+ .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 38324 <_sk_load_565_sse2_lowp+0xe6>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 382bc <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 382bc <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 382bc <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -54827,11 +55470,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,7,60,0,0 // pand 0x3c07(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,29,211,60,0,0 // pand 0x3cd3(%rip),%xmm3 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,6,60,0,0 // pand 0x3c06(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,15,111,21,14,60,0,0 // movdqa 0x3c0e(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,219,13,210,60,0,0 // pand 0x3cd2(%rip),%xmm1 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,15,111,21,218,60,0,0 // movdqa 0x3cda(%rip),%xmm2 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -54844,7 +55487,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,4,52,0,0 // movaps 0x3404(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,208,52,0,0 // movaps 0x34d0(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 75,255 // rex.WXB (bad)
@@ -54874,23 +55517,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 37748 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 3837c <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 377f0 <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 38424 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 383be <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 383be <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 383be <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -54898,11 +55541,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,5,59,0,0 // pand 0x3b05(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,61,209,59,0,0 // pand 0x3bd1(%rip),%xmm7 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,4,59,0,0 // pand 0x3b04(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,15,111,53,12,59,0,0 // movdqa 0x3b0c(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,219,45,208,59,0,0 // pand 0x3bd0(%rip),%xmm5 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,15,111,53,216,59,0,0 // movdqa 0x3bd8(%rip),%xmm6 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -54915,7 +55558,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,2,51,0,0 // movaps 0x3302(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,61,206,51,0,0 // movaps 0x33ce(%rip),%xmm7 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -54939,10 +55582,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,160,58,0,0 // pand 0x3aa0(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
+ .byte 102,68,15,219,5,108,59,0,0 // pand 0x3b6c(%rip),%xmm8 # 3bfd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,156,58,0,0 // pand 0x3a9c(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
+ .byte 102,68,15,219,13,104,59,0,0 // pand 0x3b68(%rip),%xmm9 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -54951,21 +55594,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 37882 <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 384b6 <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 378cc <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 38500 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 384fc <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 384fc <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 384fc <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -55084,11 +55727,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,193 // punpcklqdq %xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,73,56,0,0 // pand 0x3849(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,15,219,29,21,57,0,0 // pand 0x3915(%rip),%xmm3 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,72,56,0,0 // pand 0x3848(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,15,111,21,80,56,0,0 // movdqa 0x3850(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,15,219,13,20,57,0,0 // pand 0x3914(%rip),%xmm1 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,15,111,21,28,57,0,0 // movdqa 0x391c(%rip),%xmm2 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55101,7 +55744,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,70,48,0,0 // movaps 0x3046(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,18,49,0,0 // movaps 0x3112(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -55122,23 +55765,23 @@ _sk_load_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37af2 <_sk_load_4444_sse2_lowp+0x3e>
+ .byte 119,36 // ja 38726 <_sk_load_4444_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37ba4 <_sk_load_4444_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 387d8 <_sk_load_4444_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,69 // jmp 3876b <_sk_load_4444_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,61 // jmp 3876b <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,4,80 // movss (%r8,%rdx,2),%xmm0
.byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 235,35 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,35 // jmp 3876b <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -55148,7 +55791,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,157,55,0,0 // movdqa 0x379d(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,15,111,5,105,56,0,0 // movdqa 0x3869(%rip),%xmm0 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -55178,7 +55821,7 @@ _sk_load_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 37bb9 <_sk_load_4444_sse2_lowp+0x105>
+ .byte 125,255 // jge 387ed <_sk_load_4444_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -55197,23 +55840,23 @@ _sk_load_4444_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37bfe <_sk_load_4444_dst_sse2_lowp+0x3e>
+ .byte 119,36 // ja 38832 <_sk_load_4444_dst_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37cb0 <_sk_load_4444_dst_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 388e4 <_sk_load_4444_dst_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,69 // jmp 38877 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,61 // jmp 38877 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,36,80 // movss (%r8,%rdx,2),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 235,35 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,35 // jmp 38877 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -55223,7 +55866,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,145,54,0,0 // movdqa 0x3691(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,15,111,37,93,55,0,0 // movdqa 0x375d(%rip),%xmm4 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -55253,7 +55896,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 37cc5 <_sk_load_4444_dst_sse2_lowp+0x105>
+ .byte 125,255 // jge 388f9 <_sk_load_4444_dst_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -55270,12 +55913,12 @@ _sk_store_4444_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,16,54,0,0 // pand 0x3610(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
+ .byte 102,68,15,219,5,220,54,0,0 // pand 0x36dc(%rip),%xmm8 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x1464>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,12,54,0,0 // pand 0x360c(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
+ .byte 102,68,15,219,13,216,54,0,0 // pand 0x36d8(%rip),%xmm9 # 3c010 <_sk_srcover_bgra_8888_sse2_lowp+0x1474>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,14,54,0,0 // movdqa 0x360e(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
+ .byte 102,68,15,111,21,218,54,0,0 // movdqa 0x36da(%rip),%xmm10 # 3c020 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -55285,21 +55928,21 @@ _sk_store_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 37d55 <_sk_store_4444_sse2_lowp+0x89>
+ .byte 119,31 // ja 38989 <_sk_store_4444_sse2_lowp+0x89>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 37da0 <_sk_store_4444_sse2_lowp+0xd4>
+ .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 389d4 <_sk_store_4444_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,70 // jmp 389cf <_sk_store_4444_sse2_lowp+0xcf>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,62 // jmp 389cf <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,42 // jmp 389cf <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -55318,7 +55961,7 @@ _sk_store_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,221 // jmpq ffffffffde037db4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
+ .byte 233,255,255,255,221 // jmpq ffffffffde0389e8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,209 // callq *%rcx
@@ -55415,7 +56058,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,182,51,0,0 // movdqa 0x33b6(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
+ .byte 102,15,111,5,130,52,0,0 // movdqa 0x3482(%rip),%xmm0 # 3bff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -55453,19 +56096,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 37fcc <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 38c00 <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 38044 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 38c78 <_sk_load_a8_sse2_lowp+0xb1>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 38c61 <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 38c61 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -55473,7 +56116,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 38c61 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -55484,14 +56127,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,187,42,0,0 // pand 0x2abb(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,29,135,43,0,0 // pand 0x2b87(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 38045 <_sk_load_a8_sse2_lowp+0xb2>
+ .byte 125,255 // jge 38c79 <_sk_load_a8_sse2_lowp+0xb2>
.byte 255 // (bad)
.byte 255,163,255,255,255,148 // jmpq *-0x6b000001(%rbx)
.byte 255 // (bad)
@@ -55522,19 +56165,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38099 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 38ccd <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 38110 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 38d44 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 38d2e <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 38d2e <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -55542,7 +56185,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 38d2e <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -55553,14 +56196,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,238,41,0,0 // pand 0x29ee(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,61,186,42,0,0 // pand 0x2aba(%rip),%xmm7 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 38111 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 38d45 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -55590,42 +56233,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 38160 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 38d94 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 381e0 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 38e14 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,135,41,0,0 // movdqa 0x2987(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 235,123 // jmp 38e0f <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,83,42,0,0 // movdqa 0x2a53(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 38e0f <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,98,41,0,0 // movdqa 0x2962(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,46,42,0,0 // movdqa 0x2a2e(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 38e0f <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,37,41,0,0 // movdqa 0x2925(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,241,41,0,0 // movdqa 0x29f1(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 381e1 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 38e15 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -55750,19 +56393,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3839d <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 38fd1 <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3841c <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 39050 <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 39032 <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 39032 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -55770,7 +56413,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 39032 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -55781,14 +56424,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,234,38,0,0 // pand 0x26ea(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,5,182,39,0,0 // pand 0x27b6(%rip),%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,225,38,0,0 // movaps 0x26e1(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,173,39,0,0 // movaps 0x27ad(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 3841d <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 39051 <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -55816,19 +56459,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38471 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 390a5 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 384f0 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 39124 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 39106 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 39106 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -55836,7 +56479,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 39106 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -55847,14 +56490,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,22,38,0,0 // pand 0x2616(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,219,37,226,38,0,0 // pand 0x26e2(%rip),%xmm4 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,13,38,0,0 // movaps 0x260d(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,61,217,38,0,0 // movaps 0x26d9(%rip),%xmm7 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 384f1 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 39125 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -55875,10 +56518,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,24,46,0,0 // pmullw 0x2e18(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- .byte 102,15,213,13,32,46,0,0 // pmullw 0x2e20(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
+ .byte 102,15,213,5,228,46,0,0 // pmullw 0x2ee4(%rip),%xmm0 # 3c030 <_sk_srcover_bgra_8888_sse2_lowp+0x1494>
+ .byte 102,15,213,13,236,46,0,0 // pmullw 0x2eec(%rip),%xmm1 # 3c040 <_sk_srcover_bgra_8888_sse2_lowp+0x14a4>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,36,46,0,0 // pmullw 0x2e24(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
+ .byte 102,15,213,29,240,46,0,0 // pmullw 0x2ef0(%rip),%xmm3 # 3c050 <_sk_srcover_bgra_8888_sse2_lowp+0x14b4>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -55971,7 +56614,7 @@ _sk_gather_g8_sse2_lowp:
.byte 102,15,196,197,3 // pinsrw $0x3,%ebp,%xmm0
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,82,36,0,0 // movaps 0x2452(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 15,40,29,30,37,0,0 // movaps 0x251e(%rip),%xmm3 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -55987,14 +56630,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,3,36,0,0 // movdqa 0x2403(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,207,36,0,0 // movdqa 0x24cf(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56015,13 +56658,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3ae78 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3ae48 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,144,35,0,0 // movdqa 0x2390(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,92,36,0,0 // movdqa 0x245c(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56061,19 +56704,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 38817 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 3944b <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 388dc <_sk_scale_u8_sse2_lowp+0x100>
+ .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 39510 <_sk_scale_u8_sse2_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 394b8 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 394b8 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -56081,7 +56724,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 394b8 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -56092,9 +56735,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,99,34,0,0 // pand 0x2263(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,219,5,47,35,0,0 // pand 0x232f(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,85,34,0,0 // movdqa 0x2255(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,13,33,35,0,0 // movdqa 0x2321(%rip),%xmm9 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56136,19 +56779,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 38933 <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 39567 <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 38a3c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 39670 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 395d4 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 395d4 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -56156,7 +56799,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 395d4 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -56167,8 +56810,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,71,33,0,0 // pand 0x2147(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
- .byte 102,68,15,111,21,62,33,0,0 // movdqa 0x213e(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,219,5,19,34,0,0 // pand 0x2213(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,10,34,0,0 // movdqa 0x220a(%rip),%xmm10 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -56198,9 +56841,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 38a3c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 39670 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5038a44 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5039678 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -56230,23 +56873,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38aa3 <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 396d7 <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 38c74 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 398a8 <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 3971a <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 3971a <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 3971a <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -56254,11 +56897,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,166,39,0,0 // pand 0x27a6(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,219,29,114,40,0,0 // pand 0x2872(%rip),%xmm11 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,162,39,0,0 // pand 0x27a2(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,68,15,111,21,169,39,0,0 // movdqa 0x27a9(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,219,13,110,40,0,0 // pand 0x286e(%rip),%xmm9 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,68,15,111,21,117,40,0,0 // movdqa 0x2875(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -56270,7 +56913,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,5,39,0,0 // movdqa 0x2705(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,37,209,39,0,0 // movdqa 0x27d1(%rip),%xmm12 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -56311,7 +56954,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,199,30,0,0 // movdqa 0x1ec7(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,15,111,5,147,31,0,0 // movdqa 0x1f93(%rip),%xmm0 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -56358,23 +57001,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38cdb <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 3990f <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 38ef4 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 39b28 <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 39952 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 39952 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 39952 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -56382,11 +57025,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,110,37,0,0 // pand 0x256e(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
+ .byte 102,68,15,219,29,58,38,0,0 // pand 0x263a(%rip),%xmm11 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,106,37,0,0 // pand 0x256a(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- .byte 102,68,15,111,21,113,37,0,0 // movdqa 0x2571(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
+ .byte 102,68,15,219,13,54,38,0,0 // pand 0x2636(%rip),%xmm9 # 3bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,68,15,111,21,61,38,0,0 // movdqa 0x263d(%rip),%xmm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -56398,7 +57041,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,205,36,0,0 // movdqa 0x24cd(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
+ .byte 102,68,15,111,37,153,37,0,0 // movdqa 0x2599(%rip),%xmm12 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -56437,7 +57080,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,153,28,0,0 // movdqa 0x1c99(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,5,101,29,0,0 // movdqa 0x1d65(%rip),%xmm8 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -56499,7 +57142,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,44,28,0,0 // movaps 0x1c2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,5,248,28,0,0 // movaps 0x1cf8(%rip),%xmm8 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -56517,7 +57160,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 69,15,194,208,1 // cmpltps %xmm8,%xmm10
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 68,15,40,37,244,27,0,0 // movaps 0x1bf4(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,37,192,28,0,0 // movaps 0x1cc0(%rip),%xmm12 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,237 // xorps %xmm13,%xmm13
@@ -56536,10 +57179,10 @@ HIDDEN _sk_mirror_x_1_sse2_lowp
.globl _sk_mirror_x_1_sse2_lowp
FUNCTION(_sk_mirror_x_1_sse2_lowp)
_sk_mirror_x_1_sse2_lowp:
- .byte 68,15,40,5,28,28,0,0 // movaps 0x1c1c(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
+ .byte 68,15,40,5,232,28,0,0 // movaps 0x1ce8(%rip),%xmm8 # 3b8b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,156,27,0,0 // movaps 0x1b9c(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,21,104,28,0,0 // movaps 0x1c68(%rip),%xmm10 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 68,15,89,208 // mulps %xmm0,%xmm10
@@ -56549,7 +57192,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 69,15,91,233 // cvtdq2ps %xmm9,%xmm13
.byte 69,15,194,213,1 // cmpltps %xmm13,%xmm10
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,40,13,124,27,0,0 // movaps 0x1b7c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,72,28,0,0 // movaps 0x1c48(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,84,217 // andps %xmm9,%xmm11
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,87,246 // xorps %xmm14,%xmm14
@@ -56561,7 +57204,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,104,32,0,0 // movaps 0x2068(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 68,15,40,5,52,33,0,0 // movaps 0x2134(%rip),%xmm8 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 65,15,95,206 // maxps %xmm14,%xmm1
@@ -56590,7 +57233,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 73,131,248,2 // cmp $0x2,%r8
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,56 // jb 39090 <_sk_gradient_sse2_lowp+0x6c>
+ .byte 114,56 // jb 39cc4 <_sk_gradient_sse2_lowp+0x6c>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
@@ -56605,7 +57248,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,220 // psubd %xmm4,%xmm3
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,219 // jne 3906b <_sk_gradient_sse2_lowp+0x47>
+ .byte 117,219 // jne 39c9f <_sk_gradient_sse2_lowp+0x47>
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
.byte 69,137,200 // mov %r9d,%r8d
@@ -56748,10 +57391,10 @@ _sk_gradient_sse2_lowp:
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 69,15,89,207 // mulps %xmm15,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,53,227,24,0,0 // movaps 0x18e3(%rip),%xmm6 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 15,40,53,175,25,0,0 // movaps 0x19af(%rip),%xmm6 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 15,89,222 // mulps %xmm6,%xmm3
.byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 15,40,37,229,23,0,0 // movaps 0x17e5(%rip),%xmm4 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,37,177,24,0,0 // movaps 0x18b1(%rip),%xmm4 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,88,204 // addps %xmm4,%xmm9
.byte 15,88,220 // addps %xmm4,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -56847,9 +57490,9 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 394d4 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
+ .byte 120,7 // js 3a108 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 394e9 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
+ .byte 235,21 // jmp 3a11d <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -57004,10 +57647,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,68,36,176 // movaps -0x50(%rsp),%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
.byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,40,13,111,20,0,0 // movaps 0x146f(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 15,40,13,59,21,0,0 // movaps 0x153b(%rip),%xmm1 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 15,40,13,113,19,0,0 // movaps 0x1371(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,13,61,20,0,0 // movaps 0x143d(%rip),%xmm1 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,88,193 // addps %xmm1,%xmm8
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -57024,7 +57667,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,5,19,20,0,0 // movaps 0x1413(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 15,40,5,223,20,0,0 // movaps 0x14df(%rip),%xmm0 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
@@ -57103,10 +57746,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,216,18,0,0 // movaps 0x12d8(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 68,15,40,21,164,19,0,0 // movaps 0x13a4(%rip),%xmm10 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,29,216,17,0,0 // movaps 0x11d8(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,40,29,164,18,0,0 // movaps 0x12a4(%rip),%xmm11 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 65,15,88,219 // addps %xmm11,%xmm3
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
@@ -57199,7 +57842,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 68,15,40,37,140,21,0,0 // movaps 0x158c(%rip),%xmm12 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
+ .byte 68,15,40,37,88,22,0,0 // movaps 0x1658(%rip),%xmm12 # 3bd70 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,40,217 // movaps %xmm1,%xmm11
@@ -57233,26 +57876,26 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,89,246 // mulps %xmm14,%xmm14
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,111,21,0,0 // movaps 0x156f(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
+ .byte 68,15,40,37,59,22,0,0 // movaps 0x163b(%rip),%xmm12 # 3bde0 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,107,21,0,0 // movaps 0x156b(%rip),%xmm15 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
+ .byte 68,15,40,61,55,22,0,0 // movaps 0x1637(%rip),%xmm15 # 3bdf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,99,21,0,0 // movaps 0x1563(%rip),%xmm15 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
+ .byte 68,15,40,61,47,22,0,0 // movaps 0x162f(%rip),%xmm15 # 3be00 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 15,40,5,92,21,0,0 // movaps 0x155c(%rip),%xmm0 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
+ .byte 15,40,5,40,22,0,0 // movaps 0x1628(%rip),%xmm0 # 3be10 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 68,15,88,232 // addps %xmm0,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 15,40,5,85,21,0,0 // movaps 0x1555(%rip),%xmm0 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
+ .byte 15,40,5,33,22,0,0 // movaps 0x1621(%rip),%xmm0 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 65,15,84,194 // andps %xmm10,%xmm0
@@ -57264,7 +57907,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,86,200 // orps %xmm8,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,194,200,1 // cmpltps %xmm8,%xmm1
- .byte 15,40,5,65,15,0,0 // movaps 0xf41(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,40,5,13,16,0,0 // movaps 0x100d(%rip),%xmm0 # 3b840 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
@@ -57277,7 +57920,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 65,15,86,211 // orps %xmm11,%xmm2
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11
- .byte 68,15,40,13,25,15,0,0 // movaps 0xf19(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,40,13,229,15,0,0 // movaps 0xfe5(%rip),%xmm9 # 3b850 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -57335,26 +57978,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 39d07 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 3a93b <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 39f30 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3ab64 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3a9a1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3a9a1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3a9a1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57371,7 +58014,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,89,13,0,0 // movdqa 0xd59(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,37,37,14,0,0 // movdqa 0xe25(%rip),%xmm12 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57429,20 +58072,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 39ecf <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 39f4c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3ab03 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 3ab4c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 3ab4c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 3ab4c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -57475,7 +58118,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 39f4d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3ab81 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -57507,26 +58150,26 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 39fb3 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 3abe7 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3a1dc <_sk_srcover_bgra_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3ac4d <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3ac4d <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3ac4d <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57543,7 +58186,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,173,10,0,0 // movdqa 0xaad(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,37,121,11,0,0 // movdqa 0xb79(%rip),%xmm12 # 3b7f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57601,20 +58244,20 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3a17b <_sk_srcover_bgra_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3a1f8 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3adaf <_sk_srcover_bgra_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3ae2c <_sk_srcover_bgra_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 3adf8 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 3adf8 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 3adf8 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -57647,7 +58290,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3a1f9 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3ae2d <_sk_srcover_bgra_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -57680,14 +58323,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3a278 <.literal4+0x64>
+ .byte 224,64 // loopne 3aeac <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 3a281 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 3aeb5 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3a28b <.literal4+0x77>
+ .byte 127,67 // jg 3aebf <.literal4+0x77>
.byte 0,0 // add %al,(%rax)
.byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
.byte 158 // sahf
@@ -57724,7 +58367,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3a2a5 <.literal4+0x91>
+ .byte 224,7 // loopne 3aed9 <.literal4+0x91>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -57735,8 +58378,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 3a2b8 <.literal4+0xa4>
- .byte 119,115 // ja 3a32d <.literal4+0x119>
+ .byte 127,0 // jg 3aeec <.literal4+0xa4>
+ .byte 119,115 // ja 3af61 <.literal4+0x119>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -57759,12 +58402,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3a343 <.literal4+0x12f>
+ .byte 118,63 // jbe 3af77 <.literal4+0x12f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3a352 <.literal4+0x13e>
+ .byte 124,66 // jl 3af86 <.literal4+0x13e>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -57774,9 +58417,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 3a375 <.literal4+0x161>
+ .byte 112,65 // jo 3afa9 <.literal4+0x161>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3a37f <.literal4+0x16b>
+ .byte 127,71 // jg 3afb3 <.literal4+0x16b>
.byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
@@ -57797,28 +58440,30 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 3a38a <.literal4+0x176>
+ .byte 114,28 // jb 3afbe <.literal4+0x176>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,0,0,192,63 // mov $0x3fc00000,%edi
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3a3bf <_sk_srcover_bgra_8888_sse2_lowp+0x457>
+ .byte 127,63 // jg 3aff3 <_sk_srcover_bgra_8888_sse2_lowp+0x457>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
+ .byte 120,57 // js 3aff8 <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
.byte 64,32,148,90,62,4,157,30 // and %dl,0x1e9d043e(%rdx,%rbx,2)
.byte 62,0,24 // add %bl,%ds:(%rax)
.byte 161,57,109,165,144,63,252,191,16 // movabs 0x10bffc3f90a56d39,%eax
- .byte 62,0,4,0 // add %al,%ds:(%rax,%rax,1)
+ .byte 62,0,0 // add %al,%ds:(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,4,0 // add %al,(%rax,%rax,1)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3a3ad <.literal4+0x199>
+ .byte 127,0 // jg 3afe5 <.literal4+0x19d>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -57870,16 +58515,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a428 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004c0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b068 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a430 <_sk_srcover_bgra_8888_sse2_lowp+0x120004c8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b070 <_sk_srcover_bgra_8888_sse2_lowp+0x120004d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a438 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004d0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b078 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a440 <_sk_srcover_bgra_8888_sse2_lowp+0x30004d8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b080 <_sk_srcover_bgra_8888_sse2_lowp+0x30004e4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57922,16 +58567,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a488 <_sk_srcover_bgra_8888_sse2_lowp+0xa000520>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b0c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa00052c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a490 <_sk_srcover_bgra_8888_sse2_lowp+0x12000528>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000534>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a498 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000530>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b0d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00053c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000538>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000544>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57974,16 +58619,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000580>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b128 <_sk_srcover_bgra_8888_sse2_lowp+0xa00058c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000588>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b130 <_sk_srcover_bgra_8888_sse2_lowp+0x12000594>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000590>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b138 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00059c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a500 <_sk_srcover_bgra_8888_sse2_lowp+0x3000598>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b140 <_sk_srcover_bgra_8888_sse2_lowp+0x30005a4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58026,16 +58671,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a548 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005e0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b188 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005ec>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a550 <_sk_srcover_bgra_8888_sse2_lowp+0x120005e8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b190 <_sk_srcover_bgra_8888_sse2_lowp+0x120005f4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a558 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005f0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b198 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005fc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a560 <_sk_srcover_bgra_8888_sse2_lowp+0x30005f8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000604>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58078,16 +58723,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a5a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000640>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b1e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa00064c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000648>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000654>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000650>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b1f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00065c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000658>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b200 <_sk_srcover_bgra_8888_sse2_lowp+0x3000664>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58130,16 +58775,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a608 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006a0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b248 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a610 <_sk_srcover_bgra_8888_sse2_lowp+0x120006a8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b250 <_sk_srcover_bgra_8888_sse2_lowp+0x120006b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a618 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006b0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b258 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a620 <_sk_srcover_bgra_8888_sse2_lowp+0x30006b8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b260 <_sk_srcover_bgra_8888_sse2_lowp+0x30006c4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58182,16 +58827,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a668 <_sk_srcover_bgra_8888_sse2_lowp+0xa000700>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b2a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa00070c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a670 <_sk_srcover_bgra_8888_sse2_lowp+0x12000708>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000714>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a678 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000710>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00071c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a680 <_sk_srcover_bgra_8888_sse2_lowp+0x3000718>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000724>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58234,16 +58879,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a6c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000760>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b308 <_sk_srcover_bgra_8888_sse2_lowp+0xa00076c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000768>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b310 <_sk_srcover_bgra_8888_sse2_lowp+0x12000774>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a6d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000770>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b318 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00077c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000778>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b320 <_sk_srcover_bgra_8888_sse2_lowp+0x3000784>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58286,16 +58931,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a728 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007c0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b368 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a730 <_sk_srcover_bgra_8888_sse2_lowp+0x120007c8>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b370 <_sk_srcover_bgra_8888_sse2_lowp+0x120007d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a738 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007d0>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b378 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a740 <_sk_srcover_bgra_8888_sse2_lowp+0x30007d8>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b380 <_sk_srcover_bgra_8888_sse2_lowp+0x30007e4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58336,164 +58981,263 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b3c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa00082c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000834>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03b3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00083c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000844>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,18 // callq *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,22 // callq *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,26 // lcall *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,30 // lcall *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 254,1 // incb (%rcx)
- .byte 255,0 // incl (%rax)
- .byte 254,1 // incb (%rcx)
- .byte 255,0 // incl (%rax)
- .byte 0,128,255,0,0,128 // add %al,-0x7fffff01(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,254 // add %bh,%dh
+ .byte 1,255 // add %edi,%edi
+ .byte 0,254 // add %bh,%dh
+ .byte 1,255 // add %edi,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,255,0 // cmp $0x0,%bh
+ .byte 0,128,0,0,0,0 // add %al,0x0(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
@@ -58600,7 +59344,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 3a993 <.const+0x5d3>
+ .byte 224,255 // loopne 3b693 <.const+0x693>
.byte 248 // clc
.byte 0,63 // add %bh,(%rdi)
.byte 0,31 // add %bl,(%rdi)
@@ -58861,11 +59605,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3ac08 <.literal16+0x118>
+ .byte 224,64 // loopne 3b908 <.literal16+0x118>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3ac0c <.literal16+0x11c>
+ .byte 224,64 // loopne 3b90c <.literal16+0x11c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3ac10 <.literal16+0x120>
+ .byte 224,64 // loopne 3b910 <.literal16+0x120>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -58885,13 +59629,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ac31 <.literal16+0x141>
+ .byte 71,225,61 // rex.RXB loope 3b931 <.literal16+0x141>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ac35 <.literal16+0x145>
+ .byte 71,225,61 // rex.RXB loope 3b935 <.literal16+0x145>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ac39 <.literal16+0x149>
+ .byte 71,225,61 // rex.RXB loope 3b939 <.literal16+0x149>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ac3d <.literal16+0x14d>
+ .byte 71,225,61 // rex.RXB loope 3b93d <.literal16+0x14d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -58902,10 +59646,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03ac18 <_sk_srcover_bgra_8888_sse2_lowp+0xa000cb0>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03b918 <_sk_srcover_bgra_8888_sse2_lowp+0xa000d7c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303ac20 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cb8>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303b920 <_sk_srcover_bgra_8888_sse2_lowp+0x3000d84>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58920,11 +59664,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3ac7b <.literal16+0x18b>
+ .byte 127,67 // jg 3b97b <.literal16+0x18b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3ac7f <.literal16+0x18f>
+ .byte 127,67 // jg 3b97f <.literal16+0x18f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3ac83 <.literal16+0x193>
+ .byte 127,67 // jg 3b983 <.literal16+0x193>
.byte 0,0 // add %al,(%rax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
@@ -59080,13 +59824,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3ad99 <.literal16+0x2a9>
+ .byte 224,7 // loopne 3ba99 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3ad9d <.literal16+0x2ad>
+ .byte 224,7 // loopne 3ba9d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3ada1 <.literal16+0x2b1>
+ .byte 224,7 // loopne 3baa1 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3ada5 <.literal16+0x2b5>
+ .byte 224,7 // loopne 3baa5 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -59140,17 +59884,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 3ae14 <.literal16+0x324>
+ .byte 127,0 // jg 3bb14 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3ae18 <.literal16+0x328>
+ .byte 127,0 // jg 3bb18 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3ae1c <.literal16+0x32c>
+ .byte 127,0 // jg 3bb1c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3ae20 <.literal16+0x330>
- .byte 119,115 // ja 3ae95 <.literal16+0x3a5>
+ .byte 127,0 // jg 3bb20 <.literal16+0x330>
+ .byte 119,115 // ja 3bb95 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -59161,7 +59905,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 3adf9 <.literal16+0x309>
+ .byte 117,191 // jne 3baf9 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -59173,7 +59917,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a6ee3a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ed2>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a6fb3a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34f9e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -59263,16 +60007,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3af83 <.literal16+0x493>
+ .byte 118,63 // jbe 3bc83 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3af87 <.literal16+0x497>
+ .byte 118,63 // jbe 3bc87 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3af8b <.literal16+0x49b>
+ .byte 118,63 // jbe 3bc8b <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3af8f <.literal16+0x49f>
+ .byte 118,63 // jbe 3bc8f <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -59293,13 +60037,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3afc6 <.literal16+0x4d6>
+ .byte 124,66 // jl 3bcc6 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3afca <.literal16+0x4da>
+ .byte 124,66 // jl 3bcca <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3afce <.literal16+0x4de>
+ .byte 124,66 // jl 3bcce <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3afd2 <.literal16+0x4e2>
+ .byte 124,66 // jl 3bcd2 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -59345,25 +60089,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b055 <.literal16+0x565>
+ .byte 112,65 // jo 3bd55 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b059 <.literal16+0x569>
+ .byte 112,65 // jo 3bd59 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b05d <.literal16+0x56d>
+ .byte 112,65 // jo 3bd5d <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b061 <.literal16+0x571>
+ .byte 112,65 // jo 3bd61 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3b033 <.literal16+0x543>
+ .byte 127,0 // jg 3bd33 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b037 <.literal16+0x547>
+ .byte 127,0 // jg 3bd37 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b03b <.literal16+0x54b>
+ .byte 127,0 // jg 3bd3b <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b03f <.literal16+0x54f>
+ .byte 127,0 // jg 3bd3f <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -59389,13 +60133,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3b078 <.literal16+0x588>
+ .byte 127,255 // jg 3bd78 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3b07c <.literal16+0x58c>
+ .byte 127,255 // jg 3bd7c <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3b081 <.literal16+0x591>
+ .byte 127,0 // jg 3bd81 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -59409,13 +60153,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3b0eb <.literal16+0x5fb>
+ .byte 127,71 // jg 3bdeb <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3b0ef <.literal16+0x5ff>
+ .byte 127,71 // jg 3bdef <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3b0f3 <.literal16+0x603>
+ .byte 127,71 // jg 3bdf3 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3b0f7 <.literal16+0x607>
+ .byte 127,71 // jg 3bdf7 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -59492,13 +60236,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3b18e <.literal16+0x69e>
+ .byte 114,28 // jb 3be8e <.literal16+0x69e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3b192 <.literal16+0x6a2>
+ .byte 62,114,28 // jb,pt 3be92 <.literal16+0x6a2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3b196 <.literal16+0x6a6>
+ .byte 62,114,28 // jb,pt 3be96 <.literal16+0x6a6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3b19a <.literal16+0x6aa>
+ .byte 62,114,28 // jb,pt 3be9a <.literal16+0x6aa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -59517,15 +60261,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d673fe5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a07d>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d674ce5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a149>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3b1f3 <.literal16+0x703>
- .byte 114,249 // jb 3b1af <.literal16+0x6bf>
- .byte 127,63 // jg 3b1f7 <.literal16+0x707>
- .byte 114,249 // jb 3b1b3 <.literal16+0x6c3>
- .byte 127,63 // jg 3b1fb <.literal16+0x70b>
- .byte 114,249 // jb 3b1b7 <.literal16+0x6c7>
- .byte 127,63 // jg 3b1ff <.literal16+0x70f>
+ .byte 127,63 // jg 3bef3 <.literal16+0x703>
+ .byte 114,249 // jb 3beaf <.literal16+0x6bf>
+ .byte 127,63 // jg 3bef7 <.literal16+0x707>
+ .byte 114,249 // jb 3beb3 <.literal16+0x6c3>
+ .byte 127,63 // jg 3befb <.literal16+0x70b>
+ .byte 114,249 // jb 3beb7 <.literal16+0x6c7>
+ .byte 127,63 // jg 3beff <.literal16+0x70f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -59549,9 +60293,9 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3c2f5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0238d>
+ .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3cff5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02459>
.byte 16,17 // adc %dl,(%rcx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3c2fe <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02396>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3cffe <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02462>
.byte 17,192 // adc %eax,%eax
.byte 18,120,57 // adc 0x39(%rax),%bh
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -59655,14 +60399,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 3b2e1 <.literal16+0x7f1>
- .byte 224,255 // loopne 3b2e3 <.literal16+0x7f3>
- .byte 224,255 // loopne 3b2e5 <.literal16+0x7f5>
- .byte 224,255 // loopne 3b2e7 <.literal16+0x7f7>
- .byte 224,255 // loopne 3b2e9 <.literal16+0x7f9>
- .byte 224,255 // loopne 3b2eb <.literal16+0x7fb>
- .byte 224,255 // loopne 3b2ed <.literal16+0x7fd>
- .byte 224,255 // loopne 3b2ef <.literal16+0x7ff>
+ .byte 224,255 // loopne 3bfe1 <.literal16+0x7f1>
+ .byte 224,255 // loopne 3bfe3 <.literal16+0x7f3>
+ .byte 224,255 // loopne 3bfe5 <.literal16+0x7f5>
+ .byte 224,255 // loopne 3bfe7 <.literal16+0x7f7>
+ .byte 224,255 // loopne 3bfe9 <.literal16+0x7f9>
+ .byte 224,255 // loopne 3bfeb <.literal16+0x7fb>
+ .byte 224,255 // loopne 3bfed <.literal16+0x7fd>
+ .byte 224,255 // loopne 3bfef <.literal16+0x7ff>
.byte 15,0,15 // str (%rdi)
.byte 0,15 // add %cl,(%rdi)
.byte 0,15 // add %cl,(%rdi)
@@ -59735,9 +60479,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3b38b <.literal8+0x1b>
+ .byte 127,0 // jg 3c08b <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b38f <.literal8+0x1f>
+ .byte 127,0 // jg 3c08f <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -59849,7 +60593,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,71,250,0,0 // addps 0xfa47(%eax),%xmm1
+ .byte 15,88,136,55,253,0,0 // addps 0xfd37(%eax),%xmm1
.byte 141,114,8 // lea 0x8(%edx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,81,64 // movaps %xmm2,0x40(%ecx)
@@ -59857,7 +60601,7 @@ _sk_seed_shader_sse2:
.byte 15,41,81,32 // movaps %xmm2,0x20(%ecx)
.byte 15,41,81,16 // movaps %xmm2,0x10(%ecx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,87,250,0,0 // movaps 0xfa57(%eax),%xmm2
+ .byte 15,40,144,71,253,0,0 // movaps 0xfd47(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
@@ -59884,15 +60628,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,240,249,0,0 // paddd 0xf9f0(%ecx),%xmm4
+ .byte 102,15,254,161,224,252,0,0 // paddd 0xfce0(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,0,250,0,0 // movdqa 0xfa00(%ecx),%xmm6
+ .byte 102,15,111,177,240,252,0,0 // movdqa 0xfcf0(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,32,250,0,0 // movdqa 0xfa20(%ecx),%xmm0
+ .byte 102,15,111,129,16,253,0,0 // movdqa 0xfd10(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -59902,7 +60646,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,16,250,0,0 // movdqa 0xfa10(%ecx),%xmm1
+ .byte 102,15,111,137,0,253,0,0 // movdqa 0xfd00(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -59913,8 +60657,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,48,250,0,0 // mulps 0xfa30(%ecx),%xmm0
- .byte 15,88,129,64,250,0,0 // addps 0xfa40(%ecx),%xmm0
+ .byte 15,89,129,32,253,0,0 // mulps 0xfd20(%ecx),%xmm0
+ .byte 15,88,129,48,253,0,0 // addps 0xfd30(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -59982,7 +60726,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,164,248,0,0 // movaps 0xf8a4(%eax),%xmm3
+ .byte 15,40,152,148,251,0,0 // movaps 0xfb94(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -60005,7 +60749,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,116,248,0,0 // movaps 0xf874(%eax),%xmm0
+ .byte 15,40,128,100,251,0,0 // movaps 0xfb64(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -60095,7 +60839,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,197,247,0,0 // movaps 0xf7c5(%edx),%xmm5
+ .byte 15,40,170,181,250,0,0 // movaps 0xfab5(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -60134,7 +60878,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,102,247,0,0 // movaps 0xf766(%edx),%xmm4
+ .byte 15,40,162,86,250,0,0 // movaps 0xfa56(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -60218,7 +60962,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,165,246,0,0 // movaps 0xf6a5(%eax),%xmm4
+ .byte 15,40,160,149,249,0,0 // movaps 0xf995(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -60244,7 +60988,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,109,246,0,0 // movaps 0xf66d(%eax),%xmm4
+ .byte 15,40,160,93,249,0,0 // movaps 0xf95d(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -60274,7 +61018,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,38,246,0,0 // movaps 0xf626(%eax),%xmm4
+ .byte 15,40,160,22,249,0,0 // movaps 0xf916(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -60308,7 +61052,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,214,245,0,0 // movaps 0xf5d6(%eax),%xmm4
+ .byte 15,40,160,198,248,0,0 // movaps 0xf8c6(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -60364,7 +61108,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,87,245,0,0 // movaps 0xf557(%ecx),%xmm0
+ .byte 15,40,129,71,248,0,0 // movaps 0xf847(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -60424,7 +61168,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,177,244,0,0 // movaps 0xf4b1(%eax),%xmm4
+ .byte 15,40,160,161,247,0,0 // movaps 0xf7a1(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -60496,7 +61240,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,3,244,0,0 // movaps 0xf403(%edx),%xmm3
+ .byte 15,40,154,243,246,0,0 // movaps 0xf6f3(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -60558,7 +61302,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,155,243,0,0 // movaps 0xf39b(%edx),%xmm1
+ .byte 15,40,138,139,246,0,0 // movaps 0xf68b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -60607,7 +61351,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,27,243,0,0 // movaps 0xf31b(%edx),%xmm1
+ .byte 15,40,138,11,246,0,0 // movaps 0xf60b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -60660,7 +61404,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,152,242,0,0 // movaps 0xf298(%edx),%xmm2
+ .byte 15,40,146,136,245,0,0 // movaps 0xf588(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -60704,7 +61448,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,18,242,0,0 // movaps 0xf212(%edx),%xmm1
+ .byte 15,40,138,2,245,0,0 // movaps 0xf502(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -60745,7 +61489,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,147,241,0,0 // movaps 0xf193(%ecx),%xmm6
+ .byte 15,40,177,131,244,0,0 // movaps 0xf483(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -60862,7 +61606,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,10,240,0,0 // movaps 0xf00a(%ecx),%xmm2
+ .byte 15,40,145,250,242,0,0 // movaps 0xf2fa(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -60979,7 +61723,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,169,238,0,0 // movaps 0xeea9(%ecx),%xmm2
+ .byte 15,40,145,153,241,0,0 // movaps 0xf199(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -61089,7 +61833,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,94,237,0,0 // movaps 0xed5e(%ecx),%xmm4
+ .byte 15,40,161,78,240,0,0 // movaps 0xf04e(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -61217,17 +61961,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,62,236,0,0 // movaps 0xec3e(%ecx),%xmm1
+ .byte 15,40,137,46,239,0,0 // movaps 0xef2e(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,206,235,0,0 // movaps 0xebce(%ecx),%xmm7
+ .byte 15,40,185,190,238,0,0 // movaps 0xeebe(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,78,236,0,0 // movaps 0xec4e(%ecx),%xmm4
+ .byte 15,40,161,62,239,0,0 // movaps 0xef3e(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -61433,7 +62177,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,13,233,0,0 // movaps 0xe90d(%ecx),%xmm5
+ .byte 15,40,169,253,235,0,0 // movaps 0xebfd(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -61466,17 +62210,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,157,233,0,0 // movaps 0xe99d(%ecx),%xmm3
+ .byte 15,40,153,141,236,0,0 // movaps 0xec8d(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,173,233,0,0 // movaps 0xe9ad(%ecx),%xmm3
+ .byte 15,40,153,157,236,0,0 // movaps 0xec9d(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,13,233,0,0 // movaps 0xe90d(%ecx),%xmm1
+ .byte 15,40,137,253,235,0,0 // movaps 0xebfd(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -61486,7 +62230,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,189,233,0,0 // movaps 0xe9bd(%ecx),%xmm5
+ .byte 15,40,169,173,236,0,0 // movaps 0xecad(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -61679,17 +62423,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,73,230,0,0 // movaps 0xe649(%ecx),%xmm3
+ .byte 15,40,153,57,233,0,0 // movaps 0xe939(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,89,230,0,0 // movaps 0xe659(%ecx),%xmm3
+ .byte 15,40,153,73,233,0,0 // movaps 0xe949(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,185,229,0,0 // movaps 0xe5b9(%ecx),%xmm0
+ .byte 15,40,129,169,232,0,0 // movaps 0xe8a9(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -61701,7 +62445,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,105,230,0,0 // movaps 0xe669(%ecx),%xmm0
+ .byte 15,40,129,89,233,0,0 // movaps 0xe959(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -61860,16 +62604,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,238,227,0,0 // movaps 0xe3ee(%ecx),%xmm6
+ .byte 15,40,177,222,230,0,0 // movaps 0xe6de(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,254,227,0,0 // movaps 0xe3fe(%ecx),%xmm3
+ .byte 15,40,153,238,230,0,0 // movaps 0xe6ee(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,94,227,0,0 // movaps 0xe35e(%ecx),%xmm0
+ .byte 15,40,129,78,230,0,0 // movaps 0xe64e(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -61879,7 +62623,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,14,228,0,0 // movaps 0xe40e(%ecx),%xmm1
+ .byte 15,40,137,254,230,0,0 // movaps 0xe6fe(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -62038,18 +62782,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,139,225,0,0 // movaps 0xe18b(%ecx),%xmm4
+ .byte 15,40,161,123,228,0,0 // movaps 0xe47b(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,155,225,0,0 // movaps 0xe19b(%ecx),%xmm4
+ .byte 15,40,161,139,228,0,0 // movaps 0xe48b(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,251,224,0,0 // movaps 0xe0fb(%ecx),%xmm4
+ .byte 15,40,161,235,227,0,0 // movaps 0xe3eb(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -62059,7 +62803,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,171,225,0,0 // movaps 0xe1ab(%ecx),%xmm1
+ .byte 15,40,137,155,228,0,0 // movaps 0xe49b(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -62236,7 +62980,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,2,1,0,0 // jne 1db8 <_sk_srcover_rgba_8888_sse2+0x13f>
.byte 243,15,111,12,178 // movdqu (%edx,%esi,4),%xmm1
- .byte 102,15,111,135,76,223,0,0 // movdqa 0xdf4c(%edi),%xmm0
+ .byte 102,15,111,135,60,226,0,0 // movdqa 0xe23c(%edi),%xmm0
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -62247,9 +62991,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,248 // pand %xmm0,%xmm7
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
.byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,167,140,222,0,0 // movaps 0xde8c(%edi),%xmm4
+ .byte 15,40,167,124,225,0,0 // movaps 0xe17c(%edi),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,151,92,223,0,0 // movaps 0xdf5c(%edi),%xmm2
+ .byte 15,40,151,76,226,0,0 // movaps 0xe24c(%edi),%xmm2
.byte 15,89,234 // mulps %xmm2,%xmm5
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
@@ -62369,7 +63113,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,252,0,0,0 // jne 1f66 <_sk_srcover_bgra_8888_sse2+0x138>
.byte 243,15,111,36,178 // movdqu (%edx,%esi,4),%xmm4
- .byte 102,15,111,135,152,221,0,0 // movdqa 0xdd98(%edi),%xmm0
+ .byte 102,15,111,135,136,224,0,0 // movdqa 0xe088(%edi),%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
@@ -62384,9 +63128,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,41,73,32 // movaps %xmm1,0x20(%ecx)
.byte 15,91,198 // cvtdq2ps %xmm6,%xmm0
.byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,175,216,220,0,0 // movaps 0xdcd8(%edi),%xmm5
+ .byte 15,40,175,200,223,0,0 // movaps 0xdfc8(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,183,168,221,0,0 // movaps 0xdda8(%edi),%xmm6
+ .byte 15,40,183,152,224,0,0 // movaps 0xe098(%edi),%xmm6
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,88,199 // addps %xmm7,%xmm0
@@ -62505,7 +63249,7 @@ _sk_clamp_1_sse2:
.byte 232,0,0,0,0 // call 2010 <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,16,219,0,0 // movaps 0xdb10(%eax),%xmm4
+ .byte 15,40,160,0,222,0,0 // movaps 0xde00(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -62529,7 +63273,7 @@ _sk_clamp_a_sse2:
.byte 232,0,0,0,0 // call 2043 <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,221,218,0,0 // minps 0xdadd(%eax),%xmm3
+ .byte 15,93,152,205,221,0,0 // minps 0xddcd(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -62554,7 +63298,7 @@ _sk_clamp_a_dst_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,173,218,0,0 // minps 0xdaad(%eax),%xmm4
+ .byte 15,93,160,157,221,0,0 // minps 0xdd9d(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -62628,7 +63372,7 @@ _sk_invert_sse2:
.byte 232,0,0,0,0 // call 211e <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,2,218,0,0 // movaps 0xda02(%eax),%xmm4
+ .byte 15,40,160,242,220,0,0 // movaps 0xdcf2(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -62750,10 +63494,10 @@ _sk_unpremul_sse2:
.byte 232,0,0,0,0 // call 221c <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,4,217,0,0 // movaps 0xd904(%eax),%xmm4
+ .byte 15,40,160,244,219,0,0 // movaps 0xdbf4(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,168,228,217,0,0,1 // cmpltps 0xd9e4(%eax),%xmm5
+ .byte 15,194,168,212,220,0,0,1 // cmpltps 0xdcd4(%eax),%xmm5
.byte 15,84,236 // andps %xmm4,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -62782,19 +63526,19 @@ _sk_from_srgb_sse2:
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,70,217,0,0 // movaps 0xd946(%eax),%xmm4
+ .byte 15,40,160,54,220,0,0 // movaps 0xdc36(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,182,217,0,0 // movaps 0xd9b6(%eax),%xmm6
+ .byte 15,40,176,166,220,0,0 // movaps 0xdca6(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,166,217,0,0 // movaps 0xd9a6(%eax),%xmm6
+ .byte 15,40,176,150,220,0,0 // movaps 0xdc96(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,198,217,0,0 // movaps 0xd9c6(%eax),%xmm7
+ .byte 15,40,184,182,220,0,0 // movaps 0xdcb6(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,214,217,0,0 // movaps 0xd9d6(%eax),%xmm7
+ .byte 15,40,184,198,220,0,0 // movaps 0xdcc6(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -62854,18 +63598,18 @@ _sk_from_srgb_dst_sse2:
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,107,216,0,0 // movaps 0xd86b(%ecx),%xmm4
+ .byte 15,40,161,91,219,0,0 // movaps 0xdb5b(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,219,216,0,0 // movaps 0xd8db(%ecx),%xmm6
+ .byte 15,40,177,203,219,0,0 // movaps 0xdbcb(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,203,216,0,0 // movaps 0xd8cb(%ecx),%xmm5
+ .byte 15,40,169,187,219,0,0 // movaps 0xdbbb(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,235,216,0,0 // movaps 0xd8eb(%ecx),%xmm7
+ .byte 15,40,185,219,219,0,0 // movaps 0xdbdb(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,251,216,0,0 // movaps 0xd8fb(%ecx),%xmm3
+ .byte 15,40,153,235,219,0,0 // movaps 0xdbeb(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -62927,25 +63671,25 @@ _sk_to_srgb_sse2:
.byte 232,0,0,0,0 // call 2430 <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,48,216,0,0 // movaps 0xd830(%eax),%xmm4
+ .byte 15,40,160,32,219,0,0 // movaps 0xdb20(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,64,216,0,0 // movaps 0xd840(%eax),%xmm0
+ .byte 15,40,128,48,219,0,0 // movaps 0xdb30(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,80,216,0,0 // movaps 0xd850(%eax),%xmm0
+ .byte 15,40,128,64,219,0,0 // movaps 0xdb40(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,96,216,0,0 // movaps 0xd860(%eax),%xmm0
+ .byte 15,40,128,80,219,0,0 // movaps 0xdb50(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,32,216,0,0 // movaps 0xd820(%eax),%xmm5
+ .byte 15,40,168,16,219,0,0 // movaps 0xdb10(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,112,216,0,0 // movaps 0xd870(%eax),%xmm3
+ .byte 15,40,152,96,219,0,0 // movaps 0xdb60(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -63016,14 +63760,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,249,213,0,0 // movaps 0xd5f9(%eax),%xmm1
+ .byte 15,40,136,233,216,0,0 // movaps 0xd8e9(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,137,215,0,0 // andps 0xd789(%eax),%xmm5
+ .byte 15,84,168,121,218,0,0 // andps 0xda79(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -63033,9 +63777,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,153,215,0,0 // movaps 0xd799(%eax),%xmm1
+ .byte 15,40,136,137,218,0,0 // movaps 0xda89(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,169,215,0,0 // addps 0xd7a9(%eax),%xmm4
+ .byte 15,88,160,153,218,0,0 // addps 0xda99(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -63047,7 +63791,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,233,213,0,0 // movaps 0xd5e9(%eax),%xmm5
+ .byte 15,40,168,217,216,0,0 // movaps 0xd8d9(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -63057,7 +63801,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,185,215,0,0 // mulps 0xd7b9(%eax),%xmm0
+ .byte 15,89,128,169,218,0,0 // mulps 0xdaa9(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -63082,7 +63826,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
.byte 232,0,0,0,0 // call 2622 <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,238,212,0,0 // movaps 0xd4ee(%eax),%xmm4
+ .byte 15,40,160,222,215,0,0 // movaps 0xd7de(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -63095,13 +63839,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,206,214,0,0 // movaps 0xd6ce(%eax),%xmm5
+ .byte 15,40,168,190,217,0,0 // movaps 0xd9be(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,254,212,0,0 // movaps 0xd4fe(%eax),%xmm6
+ .byte 15,40,176,238,215,0,0 // movaps 0xd7ee(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -63111,19 +63855,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,222,214,0,0 // movaps 0xd6de(%eax),%xmm7
+ .byte 15,40,184,206,217,0,0 // movaps 0xd9ce(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4
+ .byte 15,40,160,174,217,0,0 // movaps 0xd9ae(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,142,214,0,0 // movaps 0xd68e(%eax),%xmm6
+ .byte 15,40,176,126,217,0,0 // movaps 0xd97e(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,174,214,0,0 // movaps 0xd6ae(%eax),%xmm0
+ .byte 15,40,128,158,217,0,0 // movaps 0xd99e(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -63149,18 +63893,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,254,212,0,0 // andps 0xd4fe(%eax),%xmm1
+ .byte 15,84,136,238,215,0,0 // andps 0xd7ee(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,222,214,0,0 // movaps 0xd6de(%eax),%xmm0
+ .byte 15,40,128,206,217,0,0 // movaps 0xd9ce(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,238,212,0,0 // movaps 0xd4ee(%eax),%xmm3
+ .byte 15,40,152,222,215,0,0 // movaps 0xd7de(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4
+ .byte 15,40,160,174,217,0,0 // movaps 0xd9ae(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,174,214,0,0 // movaps 0xd6ae(%eax),%xmm5
+ .byte 15,40,168,158,217,0,0 // movaps 0xd99e(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -63180,7 +63924,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,238,214,0,0 // addps 0xd6ee(%eax),%xmm3
+ .byte 15,88,152,222,217,0,0 // addps 0xd9de(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -63282,9 +64026,9 @@ _sk_scale_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,68,211,0,0 // pand 0xd344(%edx),%xmm4
+ .byte 102,15,219,162,52,214,0,0 // pand 0xd634(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,132,212,0,0 // mulps 0xd484(%edx),%xmm4
+ .byte 15,89,162,116,215,0,0 // mulps 0xd774(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -63350,17 +64094,17 @@ _sk_scale_565_sse2:
.byte 15,133,157,0,0,0 // jne 2a14 <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,218,211,0,0 // movdqa 0xd3da(%edx),%xmm4
+ .byte 102,15,111,162,202,214,0,0 // movdqa 0xd6ca(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,234,211,0,0 // mulps 0xd3ea(%edx),%xmm2
- .byte 102,15,111,170,250,211,0,0 // movdqa 0xd3fa(%edx),%xmm5
+ .byte 15,89,146,218,214,0,0 // mulps 0xd6da(%edx),%xmm2
+ .byte 102,15,111,170,234,214,0,0 // movdqa 0xd6ea(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,10,212,0,0 // mulps 0xd40a(%edx),%xmm5
- .byte 102,15,219,178,26,212,0,0 // pand 0xd41a(%edx),%xmm6
+ .byte 15,89,170,250,214,0,0 // mulps 0xd6fa(%edx),%xmm5
+ .byte 102,15,219,178,10,215,0,0 // pand 0xd70a(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,42,212,0,0 // mulps 0xd42a(%edx),%xmm6
+ .byte 15,89,178,26,215,0,0 // mulps 0xd71a(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -63474,9 +64218,9 @@ _sk_lerp_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,28,209,0,0 // pand 0xd11c(%edx),%xmm4
+ .byte 102,15,219,162,12,212,0,0 // pand 0xd40c(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,92,210,0,0 // mulps 0xd25c(%edx),%xmm4
+ .byte 15,89,162,76,213,0,0 // mulps 0xd54c(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -63554,17 +64298,17 @@ _sk_lerp_565_sse2:
.byte 15,133,211,0,0,0 // jne 2ca2 <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,130,209,0,0 // movdqa 0xd182(%edx),%xmm4
+ .byte 102,15,111,162,114,212,0,0 // movdqa 0xd472(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,146,209,0,0 // mulps 0xd192(%edx),%xmm1
- .byte 102,15,111,178,162,209,0,0 // movdqa 0xd1a2(%edx),%xmm6
+ .byte 15,89,138,130,212,0,0 // mulps 0xd482(%edx),%xmm1
+ .byte 102,15,111,178,146,212,0,0 // movdqa 0xd492(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,178,209,0,0 // mulps 0xd1b2(%edx),%xmm6
- .byte 102,15,219,170,194,209,0,0 // pand 0xd1c2(%edx),%xmm5
+ .byte 15,89,178,162,212,0,0 // mulps 0xd4a2(%edx),%xmm6
+ .byte 102,15,219,170,178,212,0,0 // pand 0xd4b2(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,210,209,0,0 // mulps 0xd1d2(%edx),%xmm2
+ .byte 15,89,146,194,212,0,0 // mulps 0xd4c2(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -63652,7 +64396,7 @@ _sk_load_tables_sse2:
.byte 139,30 // mov (%esi),%ebx
.byte 15,133,22,1,0,0 // jne 2e26 <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,232,206,0,0 // movdqa 0xcee8(%edx),%xmm2
+ .byte 102,15,111,146,216,209,0,0 // movdqa 0xd1d8(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -63708,7 +64452,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,40,208,0,0 // mulps 0xd028(%edx),%xmm3
+ .byte 15,89,154,24,211,0,0 // mulps 0xd318(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -63783,7 +64527,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,39,207,0,0 // movdqa 0xcf27(%edx),%xmm2
+ .byte 102,15,111,146,23,210,0,0 // movdqa 0xd217(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -63855,7 +64599,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,55,207,0,0 // mulps 0xcf37(%edx),%xmm3
+ .byte 15,89,154,39,210,0,0 // mulps 0xd227(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -63928,7 +64672,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,0,205,0,0 // movdqa 0xcd00(%edx),%xmm2
+ .byte 102,15,111,146,240,207,0,0 // movdqa 0xcff0(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -63993,7 +64737,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,144,202,0,0 // movaps 0xca90(%edx),%xmm3
+ .byte 15,40,154,128,205,0,0 // movaps 0xcd80(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -64038,9 +64782,9 @@ _sk_byte_tables_sse2:
.byte 139,16 // mov (%eax),%edx
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,99,200,0,0 // movaps 0xc863(%ecx),%xmm0
+ .byte 15,40,129,83,203,0,0 // movaps 0xcb53(%ecx),%xmm0
.byte 15,93,232 // minps %xmm0,%xmm5
- .byte 15,40,161,51,201,0,0 // movaps 0xc933(%ecx),%xmm4
+ .byte 15,40,161,35,204,0,0 // movaps 0xcc23(%ecx),%xmm4
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
@@ -64140,7 +64884,7 @@ _sk_byte_tables_sse2:
.byte 102,15,97,218 // punpcklwd %xmm2,%xmm3
.byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
.byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
- .byte 15,40,169,99,202,0,0 // movaps 0xca63(%ecx),%xmm5
+ .byte 15,40,169,83,205,0,0 // movaps 0xcd53(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -64182,7 +64926,7 @@ _sk_byte_tables_rgb_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,144,198,0,0 // movaps 0xc690(%ecx),%xmm0
+ .byte 15,40,129,128,201,0,0 // movaps 0xc980(%ecx),%xmm0
.byte 15,93,232 // minps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -64258,7 +65002,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,96,225 // punpcklbw %xmm1,%xmm4
.byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
- .byte 15,40,169,144,200,0,0 // movaps 0xc890(%ecx),%xmm5
+ .byte 15,40,169,128,203,0,0 // movaps 0xcb80(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,91,202 // cvtdq2ps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -64296,7 +65040,7 @@ _sk_table_r_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,93,170,14,197,0,0 // minps 0xc50e(%edx),%xmm5
+ .byte 15,93,170,254,199,0,0 // minps 0xc7fe(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -64341,7 +65085,7 @@ _sk_table_g_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,233 // maxps %xmm1,%xmm5
- .byte 15,93,170,136,196,0,0 // minps 0xc488(%edx),%xmm5
+ .byte 15,93,170,120,199,0,0 // minps 0xc778(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
@@ -64386,7 +65130,7 @@ _sk_table_b_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,234 // maxps %xmm2,%xmm5
- .byte 15,93,170,2,196,0,0 // minps 0xc402(%edx),%xmm5
+ .byte 15,93,170,242,198,0,0 // minps 0xc6f2(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,213 // cvtps2dq %xmm5,%xmm2
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
@@ -64431,7 +65175,7 @@ _sk_table_a_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,235 // maxps %xmm3,%xmm5
- .byte 15,93,170,124,195,0,0 // minps 0xc37c(%edx),%xmm5
+ .byte 15,93,170,108,198,0,0 // minps 0xc66c(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,221 // cvtps2dq %xmm5,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -64488,16 +65232,16 @@ _sk_parametric_r_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,133,197,0,0 // mulps 0xc585(%edx),%xmm6
- .byte 15,40,186,149,197,0,0 // movaps 0xc595(%edx),%xmm7
+ .byte 15,89,178,117,200,0,0 // mulps 0xc875(%edx),%xmm6
+ .byte 15,40,186,133,200,0,0 // movaps 0xc885(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,229,194,0,0 // orps 0xc2e5(%edx),%xmm7
- .byte 15,88,178,165,197,0,0 // addps 0xc5a5(%edx),%xmm6
- .byte 15,40,162,181,197,0,0 // movaps 0xc5b5(%edx),%xmm4
+ .byte 15,86,186,213,197,0,0 // orps 0xc5d5(%edx),%xmm7
+ .byte 15,88,178,149,200,0,0 // addps 0xc895(%edx),%xmm6
+ .byte 15,40,162,165,200,0,0 // movaps 0xc8a5(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,197,197,0,0 // addps 0xc5c5(%edx),%xmm7
- .byte 15,40,162,213,197,0,0 // movaps 0xc5d5(%edx),%xmm4
+ .byte 15,88,186,181,200,0,0 // addps 0xc8b5(%edx),%xmm7
+ .byte 15,40,162,197,200,0,0 // movaps 0xc8c5(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -64507,21 +65251,21 @@ _sk_parametric_r_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,245,194,0,0 // movaps 0xc2f5(%edx),%xmm7
+ .byte 15,40,186,229,197,0,0 // movaps 0xc5e5(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,229,197,0,0 // addps 0xc5e5(%edx),%xmm6
- .byte 15,40,162,245,197,0,0 // movaps 0xc5f5(%edx),%xmm4
+ .byte 15,88,178,213,200,0,0 // addps 0xc8d5(%edx),%xmm6
+ .byte 15,40,162,229,200,0,0 // movaps 0xc8e5(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,5,198,0,0 // movaps 0xc605(%edx),%xmm4
+ .byte 15,40,162,245,200,0,0 // movaps 0xc8f5(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,21,198,0,0 // movaps 0xc615(%edx),%xmm0
+ .byte 15,40,130,5,201,0,0 // movaps 0xc905(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,37,198,0,0 // mulps 0xc625(%edx),%xmm0
+ .byte 15,89,130,21,201,0,0 // mulps 0xc915(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -64577,16 +65321,16 @@ _sk_parametric_g_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,66,196,0,0 // mulps 0xc442(%edx),%xmm6
- .byte 15,40,186,82,196,0,0 // movaps 0xc452(%edx),%xmm7
+ .byte 15,89,178,50,199,0,0 // mulps 0xc732(%edx),%xmm6
+ .byte 15,40,186,66,199,0,0 // movaps 0xc742(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,162,193,0,0 // orps 0xc1a2(%edx),%xmm7
- .byte 15,88,178,98,196,0,0 // addps 0xc462(%edx),%xmm6
- .byte 15,40,162,114,196,0,0 // movaps 0xc472(%edx),%xmm4
+ .byte 15,86,186,146,196,0,0 // orps 0xc492(%edx),%xmm7
+ .byte 15,88,178,82,199,0,0 // addps 0xc752(%edx),%xmm6
+ .byte 15,40,162,98,199,0,0 // movaps 0xc762(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,130,196,0,0 // addps 0xc482(%edx),%xmm7
- .byte 15,40,162,146,196,0,0 // movaps 0xc492(%edx),%xmm4
+ .byte 15,88,186,114,199,0,0 // addps 0xc772(%edx),%xmm7
+ .byte 15,40,162,130,199,0,0 // movaps 0xc782(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -64596,21 +65340,21 @@ _sk_parametric_g_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,178,193,0,0 // movaps 0xc1b2(%edx),%xmm7
+ .byte 15,40,186,162,196,0,0 // movaps 0xc4a2(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,162,196,0,0 // addps 0xc4a2(%edx),%xmm6
- .byte 15,40,162,178,196,0,0 // movaps 0xc4b2(%edx),%xmm4
+ .byte 15,88,178,146,199,0,0 // addps 0xc792(%edx),%xmm6
+ .byte 15,40,162,162,199,0,0 // movaps 0xc7a2(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,194,196,0,0 // movaps 0xc4c2(%edx),%xmm4
+ .byte 15,40,162,178,199,0,0 // movaps 0xc7b2(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,210,196,0,0 // movaps 0xc4d2(%edx),%xmm0
+ .byte 15,40,130,194,199,0,0 // movaps 0xc7c2(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,226,196,0,0 // mulps 0xc4e2(%edx),%xmm0
+ .byte 15,89,130,210,199,0,0 // mulps 0xc7d2(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -64665,16 +65409,16 @@ _sk_parametric_b_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,2,195,0,0 // mulps 0xc302(%edx),%xmm6
- .byte 15,40,186,18,195,0,0 // movaps 0xc312(%edx),%xmm7
+ .byte 15,89,178,242,197,0,0 // mulps 0xc5f2(%edx),%xmm6
+ .byte 15,40,186,2,198,0,0 // movaps 0xc602(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,98,192,0,0 // orps 0xc062(%edx),%xmm7
- .byte 15,88,178,34,195,0,0 // addps 0xc322(%edx),%xmm6
- .byte 15,40,162,50,195,0,0 // movaps 0xc332(%edx),%xmm4
+ .byte 15,86,186,82,195,0,0 // orps 0xc352(%edx),%xmm7
+ .byte 15,88,178,18,198,0,0 // addps 0xc612(%edx),%xmm6
+ .byte 15,40,162,34,198,0,0 // movaps 0xc622(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,66,195,0,0 // addps 0xc342(%edx),%xmm7
- .byte 15,40,162,82,195,0,0 // movaps 0xc352(%edx),%xmm4
+ .byte 15,88,186,50,198,0,0 // addps 0xc632(%edx),%xmm7
+ .byte 15,40,162,66,198,0,0 // movaps 0xc642(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -64684,21 +65428,21 @@ _sk_parametric_b_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,114,192,0,0 // movaps 0xc072(%edx),%xmm7
+ .byte 15,40,186,98,195,0,0 // movaps 0xc362(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,98,195,0,0 // addps 0xc362(%edx),%xmm6
- .byte 15,40,162,114,195,0,0 // movaps 0xc372(%edx),%xmm4
+ .byte 15,88,178,82,198,0,0 // addps 0xc652(%edx),%xmm6
+ .byte 15,40,162,98,198,0,0 // movaps 0xc662(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,130,195,0,0 // movaps 0xc382(%edx),%xmm4
+ .byte 15,40,162,114,198,0,0 // movaps 0xc672(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,146,195,0,0 // movaps 0xc392(%edx),%xmm0
+ .byte 15,40,130,130,198,0,0 // movaps 0xc682(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,162,195,0,0 // mulps 0xc3a2(%edx),%xmm0
+ .byte 15,89,130,146,198,0,0 // mulps 0xc692(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -64753,16 +65497,16 @@ _sk_parametric_a_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,194,193,0,0 // mulps 0xc1c2(%edx),%xmm6
- .byte 15,40,186,210,193,0,0 // movaps 0xc1d2(%edx),%xmm7
+ .byte 15,89,178,178,196,0,0 // mulps 0xc4b2(%edx),%xmm6
+ .byte 15,40,186,194,196,0,0 // movaps 0xc4c2(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,34,191,0,0 // orps 0xbf22(%edx),%xmm7
- .byte 15,88,178,226,193,0,0 // addps 0xc1e2(%edx),%xmm6
- .byte 15,40,162,242,193,0,0 // movaps 0xc1f2(%edx),%xmm4
+ .byte 15,86,186,18,194,0,0 // orps 0xc212(%edx),%xmm7
+ .byte 15,88,178,210,196,0,0 // addps 0xc4d2(%edx),%xmm6
+ .byte 15,40,162,226,196,0,0 // movaps 0xc4e2(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,2,194,0,0 // addps 0xc202(%edx),%xmm7
- .byte 15,40,162,18,194,0,0 // movaps 0xc212(%edx),%xmm4
+ .byte 15,88,186,242,196,0,0 // addps 0xc4f2(%edx),%xmm7
+ .byte 15,40,162,2,197,0,0 // movaps 0xc502(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -64772,21 +65516,21 @@ _sk_parametric_a_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,50,191,0,0 // movaps 0xbf32(%edx),%xmm7
+ .byte 15,40,186,34,194,0,0 // movaps 0xc222(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,34,194,0,0 // addps 0xc222(%edx),%xmm6
- .byte 15,40,162,50,194,0,0 // movaps 0xc232(%edx),%xmm4
+ .byte 15,88,178,18,197,0,0 // addps 0xc512(%edx),%xmm6
+ .byte 15,40,162,34,197,0,0 // movaps 0xc522(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,66,194,0,0 // movaps 0xc242(%edx),%xmm4
+ .byte 15,40,162,50,197,0,0 // movaps 0xc532(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,82,194,0,0 // movaps 0xc252(%edx),%xmm0
+ .byte 15,40,130,66,197,0,0 // movaps 0xc542(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,98,194,0,0 // mulps 0xc262(%edx),%xmm0
+ .byte 15,89,130,82,197,0,0 // mulps 0xc552(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -64825,17 +65569,17 @@ _sk_gamma_sse2:
.byte 232,0,0,0,0 // call 3d33 <_sk_gamma_sse2+0x1b>
.byte 88 // pop %eax
.byte 15,91,232 // cvtdq2ps %xmm0,%xmm5
- .byte 15,89,168,125,192,0,0 // mulps 0xc07d(%eax),%xmm5
- .byte 15,40,160,141,192,0,0 // movaps 0xc08d(%eax),%xmm4
+ .byte 15,89,168,109,195,0,0 // mulps 0xc36d(%eax),%xmm5
+ .byte 15,40,160,125,195,0,0 // movaps 0xc37d(%eax),%xmm4
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,86,144,221,189,0,0 // orps 0xbddd(%eax),%xmm2
- .byte 15,88,168,157,192,0,0 // addps 0xc09d(%eax),%xmm5
+ .byte 15,86,144,205,192,0,0 // orps 0xc0cd(%eax),%xmm2
+ .byte 15,88,168,141,195,0,0 // addps 0xc38d(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,136,173,192,0,0 // mulps 0xc0ad(%eax),%xmm1
+ .byte 15,89,136,157,195,0,0 // mulps 0xc39d(%eax),%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,144,189,192,0,0 // addps 0xc0bd(%eax),%xmm2
- .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1
+ .byte 15,88,144,173,195,0,0 // addps 0xc3ad(%eax),%xmm2
+ .byte 15,40,136,189,195,0,0 // movaps 0xc3bd(%eax),%xmm1
.byte 15,94,202 // divps %xmm2,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -64848,32 +65592,32 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,237,189,0,0 // andps 0xbded(%eax),%xmm1
+ .byte 15,84,136,221,192,0,0 // andps 0xc0dd(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,168,221,192,0,0 // addps 0xc0dd(%eax),%xmm5
- .byte 15,40,184,253,192,0,0 // movaps 0xc0fd(%eax),%xmm7
+ .byte 15,88,168,205,195,0,0 // addps 0xc3cd(%eax),%xmm5
+ .byte 15,40,184,237,195,0,0 // movaps 0xc3ed(%eax),%xmm7
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,176,237,192,0,0 // movaps 0xc0ed(%eax),%xmm6
+ .byte 15,40,176,221,195,0,0 // movaps 0xc3dd(%eax),%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,144,13,193,0,0 // movaps 0xc10d(%eax),%xmm2
+ .byte 15,40,144,253,195,0,0 // movaps 0xc3fd(%eax),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,94,216 // divps %xmm0,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0
+ .byte 15,89,128,109,195,0,0 // mulps 0xc36d(%eax),%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,86,136,221,189,0,0 // orps 0xbddd(%eax),%xmm1
- .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0
+ .byte 15,86,136,205,192,0,0 // orps 0xc0cd(%eax),%xmm1
+ .byte 15,88,128,141,195,0,0 // addps 0xc38d(%eax),%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,168,173,192,0,0 // mulps 0xc0ad(%eax),%xmm5
+ .byte 15,89,168,157,195,0,0 // mulps 0xc39d(%eax),%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,88,136,189,192,0,0 // addps 0xc0bd(%eax),%xmm1
- .byte 15,40,168,205,192,0,0 // movaps 0xc0cd(%eax),%xmm5
+ .byte 15,88,136,173,195,0,0 // addps 0xc3ad(%eax),%xmm1
+ .byte 15,40,168,189,195,0,0 // movaps 0xc3bd(%eax),%xmm5
.byte 15,94,233 // divps %xmm1,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -64881,11 +65625,11 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,194,233,1 // cmpltps %xmm1,%xmm5
- .byte 15,84,168,237,189,0,0 // andps 0xbded(%eax),%xmm5
+ .byte 15,84,168,221,192,0,0 // andps 0xc0dd(%eax),%xmm5
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0
+ .byte 15,88,128,205,195,0,0 // addps 0xc3cd(%eax),%xmm0
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,89,238 // mulps %xmm6,%xmm5
@@ -64895,15 +65639,15 @@ _sk_gamma_sse2:
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0
+ .byte 15,89,128,109,195,0,0 // mulps 0xc36d(%eax),%xmm0
.byte 15,84,225 // andps %xmm1,%xmm4
- .byte 15,86,160,221,189,0,0 // orps 0xbddd(%eax),%xmm4
- .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0
- .byte 15,40,136,173,192,0,0 // movaps 0xc0ad(%eax),%xmm1
+ .byte 15,86,160,205,192,0,0 // orps 0xc0cd(%eax),%xmm4
+ .byte 15,88,128,141,195,0,0 // addps 0xc38d(%eax),%xmm0
+ .byte 15,40,136,157,195,0,0 // movaps 0xc39d(%eax),%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,88,160,189,192,0,0 // addps 0xc0bd(%eax),%xmm4
- .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1
+ .byte 15,88,160,173,195,0,0 // addps 0xc3ad(%eax),%xmm4
+ .byte 15,40,136,189,195,0,0 // movaps 0xc3bd(%eax),%xmm1
.byte 15,94,204 // divps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -64911,17 +65655,17 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,225,1 // cmpltps %xmm1,%xmm4
- .byte 15,84,160,237,189,0,0 // andps 0xbded(%eax),%xmm4
+ .byte 15,84,160,221,192,0,0 // andps 0xc0dd(%eax),%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0
+ .byte 15,88,128,205,195,0,0 // addps 0xc3cd(%eax),%xmm0
.byte 15,89,244 // mulps %xmm4,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,92,252 // subps %xmm4,%xmm7
.byte 15,94,215 // divps %xmm7,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,128,29,193,0,0 // movaps 0xc11d(%eax),%xmm0
+ .byte 15,40,128,13,196,0,0 // movaps 0xc40d(%eax),%xmm0
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -64967,27 +65711,27 @@ _sk_gamma_dst_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,40,150,86,190,0,0 // movaps 0xbe56(%esi),%xmm2
+ .byte 15,40,150,70,193,0,0 // movaps 0xc146(%esi),%xmm2
.byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp)
.byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,166,102,190,0,0 // movaps 0xbe66(%esi),%xmm4
+ .byte 15,40,166,86,193,0,0 // movaps 0xc156(%esi),%xmm4
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,40,158,182,187,0,0 // movaps 0xbbb6(%esi),%xmm3
+ .byte 15,40,158,166,190,0,0 // movaps 0xbea6(%esi),%xmm3
.byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
.byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,40,158,118,190,0,0 // movaps 0xbe76(%esi),%xmm3
+ .byte 15,40,158,102,193,0,0 // movaps 0xc166(%esi),%xmm3
.byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp)
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,174,134,190,0,0 // movaps 0xbe86(%esi),%xmm5
+ .byte 15,40,174,118,193,0,0 // movaps 0xc176(%esi),%xmm5
.byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,158,150,190,0,0 // movaps 0xbe96(%esi),%xmm3
+ .byte 15,40,158,134,193,0,0 // movaps 0xc186(%esi),%xmm3
.byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
.byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,158,166,190,0,0 // movaps 0xbea6(%esi),%xmm3
+ .byte 15,40,158,150,193,0,0 // movaps 0xc196(%esi),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
@@ -65000,27 +65744,27 @@ _sk_gamma_dst_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,218,1 // cmpltps %xmm2,%xmm3
- .byte 15,40,174,198,187,0,0 // movaps 0xbbc6(%esi),%xmm5
+ .byte 15,40,174,182,190,0,0 // movaps 0xbeb6(%esi),%xmm5
.byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
.byte 15,84,221 // andps %xmm5,%xmm3
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,40,150,182,190,0,0 // movaps 0xbeb6(%esi),%xmm2
+ .byte 15,40,150,166,193,0,0 // movaps 0xc1a6(%esi),%xmm2
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,190,214,190,0,0 // movaps 0xbed6(%esi),%xmm7
+ .byte 15,40,190,198,193,0,0 // movaps 0xc1c6(%esi),%xmm7
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,182,198,190,0,0 // movaps 0xbec6(%esi),%xmm6
+ .byte 15,40,182,182,193,0,0 // movaps 0xc1b6(%esi),%xmm6
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,40,158,230,190,0,0 // movaps 0xbee6(%esi),%xmm3
+ .byte 15,40,158,214,193,0,0 // movaps 0xc1d6(%esi),%xmm3
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,134,246,190,0,0 // movaps 0xbef6(%esi),%xmm0
+ .byte 15,40,134,230,193,0,0 // movaps 0xc1e6(%esi),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
@@ -65128,29 +65872,29 @@ _sk_lab_to_xyz_sse2:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 232,0,0,0,0 // call 41b6 <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,170,188,0,0 // mulps 0xbcaa(%eax),%xmm2
- .byte 15,40,160,58,186,0,0 // movaps 0xba3a(%eax),%xmm4
+ .byte 15,89,144,154,191,0,0 // mulps 0xbf9a(%eax),%xmm2
+ .byte 15,40,160,42,189,0,0 // movaps 0xbd2a(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,186,188,0,0 // movaps 0xbcba(%eax),%xmm5
+ .byte 15,40,168,170,191,0,0 // movaps 0xbfaa(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,202,188,0,0 // addps 0xbcca(%eax),%xmm2
- .byte 15,89,144,218,188,0,0 // mulps 0xbcda(%eax),%xmm2
- .byte 15,89,136,234,188,0,0 // mulps 0xbcea(%eax),%xmm1
+ .byte 15,88,144,186,191,0,0 // addps 0xbfba(%eax),%xmm2
+ .byte 15,89,144,202,191,0,0 // mulps 0xbfca(%eax),%xmm2
+ .byte 15,89,136,218,191,0,0 // mulps 0xbfda(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,250,188,0,0 // mulps 0xbcfa(%eax),%xmm3
+ .byte 15,89,152,234,191,0,0 // mulps 0xbfea(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,10,189,0,0 // movaps 0xbd0a(%eax),%xmm3
+ .byte 15,40,152,250,191,0,0 // movaps 0xbffa(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,26,189,0,0 // movaps 0xbd1a(%eax),%xmm6
+ .byte 15,40,176,10,192,0,0 // movaps 0xc00a(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,42,189,0,0 // movaps 0xbd2a(%eax),%xmm7
+ .byte 15,40,184,26,192,0,0 // movaps 0xc01a(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -65175,8 +65919,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,58,189,0,0 // mulps 0xbd3a(%eax),%xmm4
- .byte 15,89,152,74,189,0,0 // mulps 0xbd4a(%eax),%xmm3
+ .byte 15,89,160,42,192,0,0 // mulps 0xc02a(%eax),%xmm4
+ .byte 15,89,152,58,192,0,0 // mulps 0xc03a(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -65214,9 +65958,9 @@ _sk_load_a8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,58,185,0,0 // pand 0xb93a(%edx),%xmm0
+ .byte 102,15,219,130,42,188,0,0 // pand 0xbc2a(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,122,186,0,0 // mulps 0xba7a(%edx),%xmm3
+ .byte 15,89,154,106,189,0,0 // mulps 0xbd6a(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -65281,9 +66025,9 @@ _sk_load_a8_dst_sse2:
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,102,184,0,0 // pand 0xb866(%edx),%xmm4
+ .byte 102,15,219,162,86,187,0,0 // pand 0xbb56(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,166,185,0,0 // mulps 0xb9a6(%edx),%xmm4
+ .byte 15,89,162,150,188,0,0 // mulps 0xbc96(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65374,7 +66118,7 @@ _sk_gather_a8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,121,184,0,0 // mulps 0xb879(%ecx),%xmm3
+ .byte 15,89,153,105,187,0,0 // mulps 0xbb69(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -65410,8 +66154,8 @@ _sk_store_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,227 // maxps %xmm3,%xmm4
- .byte 15,93,166,53,182,0,0 // minps 0xb635(%esi),%xmm4
- .byte 15,89,166,5,183,0,0 // mulps 0xb705(%esi),%xmm4
+ .byte 15,93,166,37,185,0,0 // minps 0xb925(%esi),%xmm4
+ .byte 15,89,166,245,185,0,0 // mulps 0xb9f5(%esi),%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
@@ -65445,7 +66189,7 @@ _sk_store_a8_sse2:
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,37,186,0,0 // pand 0xba25(%esi),%xmm4
+ .byte 102,15,219,166,21,189,0,0 // pand 0xbd15(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
@@ -65481,12 +66225,12 @@ _sk_load_g8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,57,182,0,0 // pand 0xb639(%edx),%xmm0
+ .byte 102,15,219,130,41,185,0,0 // pand 0xb929(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,121,183,0,0 // mulps 0xb779(%edx),%xmm0
+ .byte 15,89,130,105,186,0,0 // mulps 0xba69(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,121,181,0,0 // movaps 0xb579(%edx),%xmm3
+ .byte 15,40,154,105,184,0,0 // movaps 0xb869(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -65544,13 +66288,13 @@ _sk_load_g8_dst_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,141,181,0,0 // pand 0xb58d(%edx),%xmm4
+ .byte 102,15,219,162,125,184,0,0 // pand 0xb87d(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,205,182,0,0 // mulps 0xb6cd(%edx),%xmm4
+ .byte 15,89,162,189,185,0,0 // mulps 0xb9bd(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,205,180,0,0 // movaps 0xb4cd(%edx),%xmm4
+ .byte 15,40,162,189,183,0,0 // movaps 0xb7bd(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65642,10 +66386,10 @@ _sk_gather_g8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,118,181,0,0 // mulps 0xb576(%ecx),%xmm0
+ .byte 15,89,129,102,184,0,0 // mulps 0xb866(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,118,179,0,0 // movaps 0xb376(%ecx),%xmm3
+ .byte 15,40,153,102,182,0,0 // movaps 0xb666(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -65682,20 +66426,20 @@ _sk_load_565_sse2:
.byte 117,97 // jne 4873 <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,59,181,0,0 // movdqa 0xb53b(%edx),%xmm0
+ .byte 102,15,111,130,43,184,0,0 // movdqa 0xb82b(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,75,181,0,0 // mulps 0xb54b(%edx),%xmm0
- .byte 102,15,111,138,91,181,0,0 // movdqa 0xb55b(%edx),%xmm1
+ .byte 15,89,130,59,184,0,0 // mulps 0xb83b(%edx),%xmm0
+ .byte 102,15,111,138,75,184,0,0 // movdqa 0xb84b(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,107,181,0,0 // mulps 0xb56b(%edx),%xmm1
- .byte 102,15,219,146,123,181,0,0 // pand 0xb57b(%edx),%xmm2
+ .byte 15,89,138,91,184,0,0 // mulps 0xb85b(%edx),%xmm1
+ .byte 102,15,219,146,107,184,0,0 // pand 0xb86b(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,139,181,0,0 // mulps 0xb58b(%edx),%xmm2
+ .byte 15,89,146,123,184,0,0 // mulps 0xb87b(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,43,179,0,0 // movaps 0xb32b(%edx),%xmm3
+ .byte 15,40,154,27,182,0,0 // movaps 0xb61b(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -65749,21 +66493,21 @@ _sk_load_565_dst_sse2:
.byte 117,113 // jne 4953 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,107,180,0,0 // movdqa 0xb46b(%edx),%xmm5
+ .byte 102,15,111,170,91,183,0,0 // movdqa 0xb75b(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,123,180,0,0 // mulps 0xb47b(%edx),%xmm5
+ .byte 15,89,170,107,183,0,0 // mulps 0xb76b(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,139,180,0,0 // movdqa 0xb48b(%edx),%xmm5
+ .byte 102,15,111,170,123,183,0,0 // movdqa 0xb77b(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,155,180,0,0 // mulps 0xb49b(%edx),%xmm5
+ .byte 15,89,170,139,183,0,0 // mulps 0xb78b(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,171,180,0,0 // pand 0xb4ab(%edx),%xmm4
+ .byte 102,15,219,162,155,183,0,0 // pand 0xb79b(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,187,180,0,0 // mulps 0xb4bb(%edx),%xmm4
+ .byte 15,89,162,171,183,0,0 // mulps 0xb7ab(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,91,178,0,0 // movaps 0xb25b(%edx),%xmm4
+ .byte 15,40,162,75,181,0,0 // movaps 0xb54b(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65848,20 +66592,20 @@ _sk_gather_565_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm0
+ .byte 102,15,111,130,217,181,0,0 // movdqa 0xb5d9(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,249,178,0,0 // mulps 0xb2f9(%edx),%xmm0
- .byte 102,15,111,138,9,179,0,0 // movdqa 0xb309(%edx),%xmm1
+ .byte 15,89,130,233,181,0,0 // mulps 0xb5e9(%edx),%xmm0
+ .byte 102,15,111,138,249,181,0,0 // movdqa 0xb5f9(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,25,179,0,0 // mulps 0xb319(%edx),%xmm1
- .byte 102,15,219,146,41,179,0,0 // pand 0xb329(%edx),%xmm2
+ .byte 15,89,138,9,182,0,0 // mulps 0xb609(%edx),%xmm1
+ .byte 102,15,219,146,25,182,0,0 // pand 0xb619(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,57,179,0,0 // mulps 0xb339(%edx),%xmm2
+ .byte 15,89,146,41,182,0,0 // mulps 0xb629(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,217,176,0,0 // movaps 0xb0d9(%edx),%xmm3
+ .byte 15,40,154,201,179,0,0 // movaps 0xb3c9(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -65884,14 +66628,14 @@ _sk_store_565_sse2:
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,182,102,176,0,0 // movaps 0xb066(%esi),%xmm6
+ .byte 15,40,182,86,179,0,0 // movaps 0xb356(%esi),%xmm6
.byte 15,93,238 // minps %xmm6,%xmm5
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,95,249 // maxps %xmm1,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,95,226 // maxps %xmm2,%xmm4
.byte 15,93,230 // minps %xmm6,%xmm4
- .byte 15,40,182,102,180,0,0 // movaps 0xb466(%esi),%xmm6
+ .byte 15,40,182,86,183,0,0 // movaps 0xb756(%esi),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -65906,7 +66650,7 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,23 // add (%edi),%edx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,89,190,118,180,0,0 // mulps 0xb476(%esi),%xmm7
+ .byte 15,89,190,102,183,0,0 // mulps 0xb766(%esi),%xmm7
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 102,15,91,239 // cvtps2dq %xmm7,%xmm5
.byte 102,15,114,245,5 // pslld $0x5,%xmm5
@@ -65978,21 +66722,21 @@ _sk_load_4444_sse2:
.byte 117,112 // jne 4c45 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,136,179,0,0 // movdqa 0xb388(%edx),%xmm0
+ .byte 102,15,111,130,120,182,0,0 // movdqa 0xb678(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,152,179,0,0 // mulps 0xb398(%edx),%xmm0
- .byte 102,15,111,138,168,179,0,0 // movdqa 0xb3a8(%edx),%xmm1
+ .byte 15,89,130,136,182,0,0 // mulps 0xb688(%edx),%xmm0
+ .byte 102,15,111,138,152,182,0,0 // movdqa 0xb698(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,184,179,0,0 // mulps 0xb3b8(%edx),%xmm1
- .byte 102,15,111,146,200,179,0,0 // movdqa 0xb3c8(%edx),%xmm2
+ .byte 15,89,138,168,182,0,0 // mulps 0xb6a8(%edx),%xmm1
+ .byte 102,15,111,146,184,182,0,0 // movdqa 0xb6b8(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,216,179,0,0 // mulps 0xb3d8(%edx),%xmm2
- .byte 102,15,219,154,232,179,0,0 // pand 0xb3e8(%edx),%xmm3
+ .byte 15,89,146,200,182,0,0 // mulps 0xb6c8(%edx),%xmm2
+ .byte 102,15,219,154,216,182,0,0 // pand 0xb6d8(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,248,179,0,0 // mulps 0xb3f8(%edx),%xmm3
+ .byte 15,89,154,232,182,0,0 // mulps 0xb6e8(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -66048,24 +66792,24 @@ _sk_load_4444_dst_sse2:
.byte 15,133,128,0,0,0 // jne 4d38 <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,169,178,0,0 // movdqa 0xb2a9(%edx),%xmm5
+ .byte 102,15,111,170,153,181,0,0 // movdqa 0xb599(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,185,178,0,0 // mulps 0xb2b9(%edx),%xmm5
+ .byte 15,89,170,169,181,0,0 // mulps 0xb5a9(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,201,178,0,0 // movdqa 0xb2c9(%edx),%xmm5
+ .byte 102,15,111,170,185,181,0,0 // movdqa 0xb5b9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,217,178,0,0 // mulps 0xb2d9(%edx),%xmm5
+ .byte 15,89,170,201,181,0,0 // mulps 0xb5c9(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm5
+ .byte 102,15,111,170,217,181,0,0 // movdqa 0xb5d9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,249,178,0,0 // mulps 0xb2f9(%edx),%xmm5
+ .byte 15,89,170,233,181,0,0 // mulps 0xb5e9(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,9,179,0,0 // pand 0xb309(%edx),%xmm4
+ .byte 102,15,219,162,249,181,0,0 // pand 0xb5f9(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,25,179,0,0 // mulps 0xb319(%edx),%xmm4
+ .byte 15,89,162,9,182,0,0 // mulps 0xb609(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66150,21 +66894,21 @@ _sk_gather_4444_sse2:
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,11,177,0,0 // movdqa 0xb10b(%ecx),%xmm0
+ .byte 102,15,111,129,251,179,0,0 // movdqa 0xb3fb(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,27,177,0,0 // mulps 0xb11b(%ecx),%xmm0
- .byte 102,15,111,137,43,177,0,0 // movdqa 0xb12b(%ecx),%xmm1
+ .byte 15,89,129,11,180,0,0 // mulps 0xb40b(%ecx),%xmm0
+ .byte 102,15,111,137,27,180,0,0 // movdqa 0xb41b(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,59,177,0,0 // mulps 0xb13b(%ecx),%xmm1
- .byte 102,15,111,145,75,177,0,0 // movdqa 0xb14b(%ecx),%xmm2
+ .byte 15,89,137,43,180,0,0 // mulps 0xb42b(%ecx),%xmm1
+ .byte 102,15,111,145,59,180,0,0 // movdqa 0xb43b(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,91,177,0,0 // mulps 0xb15b(%ecx),%xmm2
- .byte 102,15,219,153,107,177,0,0 // pand 0xb16b(%ecx),%xmm3
+ .byte 15,89,145,75,180,0,0 // mulps 0xb44b(%ecx),%xmm2
+ .byte 102,15,219,153,91,180,0,0 // pand 0xb45b(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,123,177,0,0 // mulps 0xb17b(%ecx),%xmm3
+ .byte 15,89,153,107,180,0,0 // mulps 0xb46b(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -66189,9 +66933,9 @@ _sk_store_4444_sse2:
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,106,172,0,0 // movaps 0xac6a(%eax),%xmm5
+ .byte 15,40,168,90,175,0,0 // movaps 0xaf5a(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,10,177,0,0 // movaps 0xb10a(%eax),%xmm6
+ .byte 15,40,176,250,179,0,0 // movaps 0xb3fa(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,12 // pslld $0xc,%xmm4
@@ -66293,11 +67037,11 @@ _sk_load_8888_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 505b <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,9,172,0,0 // movdqa 0xac09(%edx),%xmm2
+ .byte 102,15,111,146,249,174,0,0 // movdqa 0xaef9(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,73,173,0,0 // movaps 0xad49(%edx),%xmm4
+ .byte 15,40,162,57,176,0,0 // movaps 0xb039(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -66362,11 +67106,11 @@ _sk_load_8888_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 5132 <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,66,171,0,0 // movdqa 0xab42(%edx),%xmm5
+ .byte 102,15,111,170,50,174,0,0 // movdqa 0xae32(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,130,172,0,0 // movaps 0xac82(%edx),%xmm7
+ .byte 15,40,186,114,175,0,0 // movaps 0xaf72(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -66461,11 +67205,11 @@ _sk_gather_8888_sse2:
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,207,169,0,0 // movdqa 0xa9cf(%ecx),%xmm2
+ .byte 102,15,111,145,191,172,0,0 // movdqa 0xacbf(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,15,171,0,0 // movaps 0xab0f(%ecx),%xmm4
+ .byte 15,40,161,255,173,0,0 // movaps 0xadff(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -66504,9 +67248,9 @@ _sk_store_8888_sse2:
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,144,168,0,0 // movaps 0xa890(%eax),%xmm5
+ .byte 15,40,168,128,171,0,0 // movaps 0xab80(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,96,169,0,0 // movaps 0xa960(%eax),%xmm6
+ .byte 15,40,176,80,172,0,0 // movaps 0xac50(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 15,87,255 // xorps %xmm7,%xmm7
@@ -66594,11 +67338,11 @@ _sk_load_bgra_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 53fa <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,106,168,0,0 // movdqa 0xa86a(%edx),%xmm0
+ .byte 102,15,111,130,90,171,0,0 // movdqa 0xab5a(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,170,169,0,0 // movaps 0xa9aa(%edx),%xmm4
+ .byte 15,40,162,154,172,0,0 // movaps 0xac9a(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -66663,11 +67407,11 @@ _sk_load_bgra_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 54d1 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,163,167,0,0 // movdqa 0xa7a3(%edx),%xmm5
+ .byte 102,15,111,170,147,170,0,0 // movdqa 0xaa93(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,227,168,0,0 // movaps 0xa8e3(%edx),%xmm7
+ .byte 15,40,186,211,171,0,0 // movaps 0xabd3(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -66762,11 +67506,11 @@ _sk_gather_bgra_sse2:
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,48,166,0,0 // movdqa 0xa630(%ecx),%xmm0
+ .byte 102,15,111,129,32,169,0,0 // movdqa 0xa920(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,112,167,0,0 // movaps 0xa770(%ecx),%xmm4
+ .byte 15,40,161,96,170,0,0 // movaps 0xaa60(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -66806,9 +67550,9 @@ _sk_store_bgra_sse2:
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,40,168,241,164,0,0 // movaps 0xa4f1(%eax),%xmm5
+ .byte 15,40,168,225,167,0,0 // movaps 0xa7e1(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,193,165,0,0 // movaps 0xa5c1(%eax),%xmm6
+ .byte 15,40,176,177,168,0,0 // movaps 0xa8b1(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 15,87,255 // xorps %xmm7,%xmm7
@@ -66923,11 +67667,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,187,168,0,0 // movdqa 0xa8bb(%edx),%xmm5
+ .byte 102,15,111,170,171,171,0,0 // movdqa 0xabab(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,203,168,0,0 // pand 0xa8cb(%edx),%xmm1
- .byte 102,15,111,130,219,168,0,0 // movdqa 0xa8db(%edx),%xmm0
+ .byte 102,15,219,138,187,171,0,0 // pand 0xabbb(%edx),%xmm1
+ .byte 102,15,111,130,203,171,0,0 // movdqa 0xabcb(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -66939,7 +67683,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,203,168,0,0 // movdqa 0xa8cb(%edx),%xmm3
+ .byte 102,15,111,154,187,171,0,0 // movdqa 0xabbb(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -66952,7 +67696,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,219,168,0,0 // movdqa 0xa8db(%edx),%xmm2
+ .byte 102,15,111,146,203,171,0,0 // movdqa 0xabcb(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -66967,7 +67711,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,235,168,0,0 // movdqa 0xa8eb(%edx),%xmm3
+ .byte 102,15,111,154,219,171,0,0 // movdqa 0xabdb(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -67056,18 +67800,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,158,166,0,0 // movdqa 0xa69e(%edx),%xmm7
+ .byte 102,15,111,186,142,169,0,0 // movdqa 0xa98e(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,174,166,0,0 // movdqa 0xa6ae(%edx),%xmm3
+ .byte 102,15,111,154,158,169,0,0 // movdqa 0xa99e(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,190,166,0,0 // movdqa 0xa6be(%edx),%xmm4
+ .byte 102,15,111,162,174,169,0,0 // movdqa 0xa9ae(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,206,166,0,0 // movdqa 0xa6ce(%edx),%xmm2
+ .byte 102,15,111,146,190,169,0,0 // movdqa 0xa9be(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -67213,11 +67957,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,2,164,0,0 // movdqa 0xa402(%ecx),%xmm6
+ .byte 102,15,111,177,242,166,0,0 // movdqa 0xa6f2(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,18,164,0,0 // pand 0xa412(%ecx),%xmm1
- .byte 102,15,111,129,34,164,0,0 // movdqa 0xa422(%ecx),%xmm0
+ .byte 102,15,219,137,2,167,0,0 // pand 0xa702(%ecx),%xmm1
+ .byte 102,15,111,129,18,167,0,0 // movdqa 0xa712(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -67228,7 +67972,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,18,164,0,0 // movdqa 0xa412(%ecx),%xmm3
+ .byte 102,15,111,153,2,167,0,0 // movdqa 0xa702(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -67242,7 +67986,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,34,164,0,0 // movdqa 0xa422(%ecx),%xmm2
+ .byte 102,15,111,145,18,167,0,0 // movdqa 0xa712(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -67251,12 +67995,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,18,164,0,0 // pand 0xa412(%ecx),%xmm7
+ .byte 102,15,219,185,2,167,0,0 // pand 0xa702(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,50,164,0,0 // movdqa 0xa432(%ecx),%xmm4
+ .byte 102,15,111,161,34,167,0,0 // movdqa 0xa722(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -67295,22 +68039,22 @@ _sk_store_f16_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 232,0,0,0,0 // call 5d92 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,126,162,0,0 // movdqa 0xa27e(%eax),%xmm3
+ .byte 102,15,111,152,110,165,0,0 // movdqa 0xa56e(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,174,162,0,0 // movdqa 0xa2ae(%eax),%xmm1
+ .byte 102,15,111,136,158,165,0,0 // movdqa 0xa59e(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,142,162,0,0 // movdqa 0xa28e(%eax),%xmm7
+ .byte 102,15,111,184,126,165,0,0 // movdqa 0xa57e(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,158,162,0,0 // movdqa 0xa29e(%eax),%xmm5
+ .byte 102,15,111,168,142,165,0,0 // movdqa 0xa58e(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,46,159,0,0 // movdqa 0x9f2e(%eax),%xmm0
+ .byte 102,15,111,128,30,162,0,0 // movdqa 0xa21e(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -67444,7 +68188,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,65,158,0,0 // movaps 0x9e41(%edx),%xmm4
+ .byte 15,40,162,49,161,0,0 // movaps 0xa131(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -67548,7 +68292,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,218,156,0,0 // movaps 0x9cda(%edx),%xmm5
+ .byte 15,40,170,202,159,0,0 // movaps 0x9fca(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -67574,7 +68318,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,90,154,0,0 // movaps 0x9a5a(%edx),%xmm3
+ .byte 15,40,154,74,157,0,0 // movaps 0x9d4a(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -67617,9 +68361,9 @@ _sk_store_u16_be_sse2:
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,255,152,0,0 // movaps 0x98ff(%eax),%xmm5
+ .byte 15,40,168,239,155,0,0 // movaps 0x9bef(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,47,158,0,0 // movaps 0x9e2f(%eax),%xmm6
+ .byte 15,40,176,31,161,0,0 // movaps 0xa11f(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -67918,7 +68662,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,160,149,0,0 // andps 0x95a0(%eax),%xmm5
+ .byte 15,84,168,144,152,0,0 // andps 0x9890(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -67950,7 +68694,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,78,149,0,0 // andps 0x954e(%eax),%xmm5
+ .byte 15,84,168,62,152,0,0 // andps 0x983e(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -67980,13 +68724,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,220,156,0,0 // mulss 0x9cdc(%ecx),%xmm5
+ .byte 243,15,89,169,204,159,0,0 // mulss 0x9fcc(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,252,148,0,0 // andps 0x94fc(%ecx),%xmm5
+ .byte 15,84,169,236,151,0,0 // andps 0x97ec(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -68021,13 +68765,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,104,156,0,0 // mulss 0x9c68(%ecx),%xmm5
+ .byte 243,15,89,169,88,159,0,0 // mulss 0x9f58(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,136,148,0,0 // andps 0x9488(%ecx),%xmm5
+ .byte 15,84,169,120,151,0,0 // andps 0x9778(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -68058,7 +68802,7 @@ _sk_clamp_x_1_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,20,148,0,0 // minps 0x9414(%eax),%xmm4
+ .byte 15,93,160,4,151,0,0 // minps 0x9704(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -68083,7 +68827,7 @@ _sk_repeat_x_1_sse2:
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,228,147,0,0 // movaps 0x93e4(%eax),%xmm7
+ .byte 15,40,184,212,150,0,0 // movaps 0x96d4(%eax),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -68109,14 +68853,14 @@ _sk_mirror_x_1_sse2:
.byte 131,236,8 // sub $0x8,%esp
.byte 232,0,0,0,0 // call 6786 <_sk_mirror_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,160,10,148,0,0 // movaps 0x940a(%eax),%xmm4
+ .byte 15,40,160,250,150,0,0 // movaps 0x96fa(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,138,147,0,0 // movaps 0x938a(%eax),%xmm5
+ .byte 15,40,168,122,150,0,0 // movaps 0x967a(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,154,147,0,0 // movaps 0x939a(%eax),%xmm7
+ .byte 15,40,184,138,150,0,0 // movaps 0x968a(%eax),%xmm7
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -68149,10 +68893,10 @@ _sk_luminance_to_alpha_sse2:
.byte 232,0,0,0,0 // call 67f0 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,112,152,0,0 // mulps 0x9870(%eax),%xmm0
- .byte 15,89,136,128,152,0,0 // mulps 0x9880(%eax),%xmm1
+ .byte 15,89,128,96,155,0,0 // mulps 0x9b60(%eax),%xmm0
+ .byte 15,89,136,112,155,0,0 // mulps 0x9b70(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,144,152,0,0 // mulps 0x9890(%eax),%xmm3
+ .byte 15,89,152,128,155,0,0 // mulps 0x9b80(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68548,12 +69292,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,10,148,0,0 // movdqa 0x940a(%edx),%xmm2
+ .byte 102,15,111,146,250,150,0,0 // movdqa 0x96fa(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,202,145,0,0 // por 0x91ca(%edx),%xmm2
+ .byte 102,15,235,146,186,148,0,0 // por 0x94ba(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,26,148,0,0 // por 0x941a(%edx),%xmm1
- .byte 15,88,138,42,148,0,0 // addps 0x942a(%edx),%xmm1
+ .byte 102,15,235,138,10,151,0,0 // por 0x970a(%edx),%xmm1
+ .byte 15,88,138,26,151,0,0 // addps 0x971a(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -68846,30 +69590,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,74,144,0,0 // movaps 0x904a(%eax),%xmm0
+ .byte 15,40,128,58,147,0,0 // movaps 0x933a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,90,144,0,0 // addps 0x905a(%eax),%xmm0
+ .byte 15,88,128,74,147,0,0 // addps 0x934a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,106,144,0,0 // addps 0x906a(%eax),%xmm0
+ .byte 15,88,128,90,147,0,0 // addps 0x935a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,122,144,0,0 // addps 0x907a(%eax),%xmm0
+ .byte 15,88,128,106,147,0,0 // addps 0x936a(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,138,144,0,0 // movaps 0x908a(%eax),%xmm6
+ .byte 15,40,176,122,147,0,0 // movaps 0x937a(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,154,138,0,0 // movaps 0x8a9a(%eax),%xmm0
+ .byte 15,40,128,138,141,0,0 // movaps 0x8d8a(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,170,138,0,0 // movaps 0x8aaa(%eax),%xmm5
+ .byte 15,40,168,154,141,0,0 // movaps 0x8d9a(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -68937,8 +69681,8 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,125,143,0,0 // mulps 0x8f7d(%edx),%xmm4
- .byte 15,89,130,141,143,0,0 // mulps 0x8f8d(%edx),%xmm0
+ .byte 15,89,162,109,146,0,0 // mulps 0x926d(%edx),%xmm4
+ .byte 15,89,130,125,146,0,0 // mulps 0x927d(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -68947,7 +69691,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,125,137,0,0 // mulps 0x897d(%edx),%xmm0
+ .byte 15,89,130,109,140,0,0 // mulps 0x8c6d(%edx),%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -68983,18 +69727,18 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,242,142,0,0 // mulps 0x8ef2(%edx),%xmm4
- .byte 15,89,130,2,143,0,0 // mulps 0x8f02(%edx),%xmm0
+ .byte 15,89,162,226,145,0,0 // mulps 0x91e2(%edx),%xmm4
+ .byte 15,89,130,242,145,0,0 // mulps 0x91f2(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,81,197 // sqrtps %xmm5,%xmm0
- .byte 15,87,162,242,141,0,0 // xorps 0x8df2(%edx),%xmm4
+ .byte 15,87,162,226,144,0,0 // xorps 0x90e2(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,242,136,0,0 // mulps 0x88f2(%edx),%xmm0
+ .byte 15,89,130,226,139,0,0 // mulps 0x8be2(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -69021,7 +69765,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,134,142,0,0 // mulps 0x8e86(%ecx),%xmm5
+ .byte 15,89,169,118,145,0,0 // mulps 0x9176(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -69029,7 +69773,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,134,141,0,0 // xorps 0x8d86(%ecx),%xmm0
+ .byte 15,87,129,118,144,0,0 // xorps 0x9076(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -69108,14 +69852,14 @@ _sk_save_xy_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 232,0,0,0,0 // call 7373 <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,157,135,0,0 // movaps 0x879d(%eax),%xmm4
+ .byte 15,40,160,141,138,0,0 // movaps 0x8a8d(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,173,135,0,0 // movaps 0x87ad(%eax),%xmm2
+ .byte 15,40,144,157,138,0,0 // movaps 0x8a9d(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -69197,8 +69941,8 @@ _sk_bilinear_nx_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,213,140,0,0 // addps 0x8cd5(%eax),%xmm0
- .byte 15,40,168,197,134,0,0 // movaps 0x86c5(%eax),%xmm5
+ .byte 15,88,128,197,143,0,0 // addps 0x8fc5(%eax),%xmm0
+ .byte 15,40,168,181,137,0,0 // movaps 0x89b5(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69226,7 +69970,7 @@ _sk_bilinear_px_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,111,134,0,0 // addps 0x866f(%eax),%xmm0
+ .byte 15,88,128,95,137,0,0 // addps 0x895f(%eax),%xmm0
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69253,8 +69997,8 @@ _sk_bilinear_ny_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,83,140,0,0 // addps 0x8c53(%eax),%xmm1
- .byte 15,40,168,67,134,0,0 // movaps 0x8643(%eax),%xmm5
+ .byte 15,88,136,67,143,0,0 // addps 0x8f43(%eax),%xmm1
+ .byte 15,40,168,51,137,0,0 // movaps 0x8933(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69282,7 +70026,7 @@ _sk_bilinear_py_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,236,133,0,0 // addps 0x85ec(%eax),%xmm1
+ .byte 15,88,136,220,136,0,0 // addps 0x88dc(%eax),%xmm1
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69309,13 +70053,13 @@ _sk_bicubic_n3x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,223,139,0,0 // addps 0x8bdf(%eax),%xmm0
- .byte 15,40,168,191,133,0,0 // movaps 0x85bf(%eax),%xmm5
+ .byte 15,88,128,207,142,0,0 // addps 0x8ecf(%eax),%xmm0
+ .byte 15,40,168,175,136,0,0 // movaps 0x88af(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,239,139,0,0 // mulps 0x8bef(%eax),%xmm5
- .byte 15,88,168,175,135,0,0 // addps 0x87af(%eax),%xmm5
+ .byte 15,89,168,223,142,0,0 // mulps 0x8edf(%eax),%xmm5
+ .byte 15,88,168,159,138,0,0 // addps 0x8a9f(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69343,16 +70087,16 @@ _sk_bicubic_n1x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,114,139,0,0 // addps 0x8b72(%eax),%xmm0
- .byte 15,40,168,98,133,0,0 // movaps 0x8562(%eax),%xmm5
+ .byte 15,88,128,98,142,0,0 // addps 0x8e62(%eax),%xmm0
+ .byte 15,40,168,82,136,0,0 // movaps 0x8852(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,162,139,0,0 // movaps 0x8ba2(%eax),%xmm4
+ .byte 15,40,160,146,142,0,0 // movaps 0x8e92(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,178,139,0,0 // addps 0x8bb2(%eax),%xmm4
+ .byte 15,88,160,162,142,0,0 // addps 0x8ea2(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,82,133,0,0 // addps 0x8552(%eax),%xmm4
+ .byte 15,88,160,66,136,0,0 // addps 0x8842(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,194,139,0,0 // addps 0x8bc2(%eax),%xmm4
+ .byte 15,88,160,178,142,0,0 // addps 0x8eb2(%eax),%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69377,17 +70121,17 @@ _sk_bicubic_p1x_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,231,132,0,0 // movaps 0x84e7(%eax),%xmm4
+ .byte 15,40,160,215,135,0,0 // movaps 0x87d7(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,55,139,0,0 // movaps 0x8b37(%eax),%xmm6
+ .byte 15,40,176,39,142,0,0 // movaps 0x8e27(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,71,139,0,0 // addps 0x8b47(%eax),%xmm6
+ .byte 15,88,176,55,142,0,0 // addps 0x8e37(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,87,139,0,0 // addps 0x8b57(%eax),%xmm6
+ .byte 15,88,176,71,142,0,0 // addps 0x8e47(%eax),%xmm6
.byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69414,11 +70158,11 @@ _sk_bicubic_p3x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,231,138,0,0 // addps 0x8ae7(%eax),%xmm0
+ .byte 15,88,128,215,141,0,0 // addps 0x8dd7(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,199,138,0,0 // mulps 0x8ac7(%eax),%xmm4
- .byte 15,88,160,135,134,0,0 // addps 0x8687(%eax),%xmm4
+ .byte 15,89,160,183,141,0,0 // mulps 0x8db7(%eax),%xmm4
+ .byte 15,88,160,119,137,0,0 // addps 0x8977(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69446,13 +70190,13 @@ _sk_bicubic_n3y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,100,138,0,0 // addps 0x8a64(%eax),%xmm1
- .byte 15,40,168,68,132,0,0 // movaps 0x8444(%eax),%xmm5
+ .byte 15,88,136,84,141,0,0 // addps 0x8d54(%eax),%xmm1
+ .byte 15,40,168,52,135,0,0 // movaps 0x8734(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,116,138,0,0 // mulps 0x8a74(%eax),%xmm5
- .byte 15,88,168,52,134,0,0 // addps 0x8634(%eax),%xmm5
+ .byte 15,89,168,100,141,0,0 // mulps 0x8d64(%eax),%xmm5
+ .byte 15,88,168,36,137,0,0 // addps 0x8924(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69480,16 +70224,16 @@ _sk_bicubic_n1y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,246,137,0,0 // addps 0x89f6(%eax),%xmm1
- .byte 15,40,168,230,131,0,0 // movaps 0x83e6(%eax),%xmm5
+ .byte 15,88,136,230,140,0,0 // addps 0x8ce6(%eax),%xmm1
+ .byte 15,40,168,214,134,0,0 // movaps 0x86d6(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,38,138,0,0 // movaps 0x8a26(%eax),%xmm4
+ .byte 15,40,160,22,141,0,0 // movaps 0x8d16(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,54,138,0,0 // addps 0x8a36(%eax),%xmm4
+ .byte 15,88,160,38,141,0,0 // addps 0x8d26(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,214,131,0,0 // addps 0x83d6(%eax),%xmm4
+ .byte 15,88,160,198,134,0,0 // addps 0x86c6(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,70,138,0,0 // addps 0x8a46(%eax),%xmm4
+ .byte 15,88,160,54,141,0,0 // addps 0x8d36(%eax),%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69514,17 +70258,17 @@ _sk_bicubic_p1y_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,106,131,0,0 // movaps 0x836a(%eax),%xmm4
+ .byte 15,40,160,90,134,0,0 // movaps 0x865a(%eax),%xmm4
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,186,137,0,0 // movaps 0x89ba(%eax),%xmm6
+ .byte 15,40,176,170,140,0,0 // movaps 0x8caa(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,202,137,0,0 // addps 0x89ca(%eax),%xmm6
+ .byte 15,88,176,186,140,0,0 // addps 0x8cba(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,218,137,0,0 // addps 0x89da(%eax),%xmm6
+ .byte 15,88,176,202,140,0,0 // addps 0x8cca(%eax),%xmm6
.byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69551,11 +70295,11 @@ _sk_bicubic_p3y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,105,137,0,0 // addps 0x8969(%eax),%xmm1
+ .byte 15,88,136,89,140,0,0 // addps 0x8c59(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,73,137,0,0 // mulps 0x8949(%eax),%xmm4
- .byte 15,88,160,9,133,0,0 // addps 0x8509(%eax),%xmm4
+ .byte 15,89,160,57,140,0,0 // mulps 0x8c39(%eax),%xmm4
+ .byte 15,88,160,249,135,0,0 // addps 0x87f9(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69706,7 +70450,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,179,135,0,0 // movdqa 0x87b3(%edx),%xmm4
+ .byte 102,15,111,162,163,138,0,0 // movdqa 0x8aa3(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -69746,7 +70490,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,115,129,0,0 // movdqa 0x8173(%edx),%xmm0
+ .byte 102,15,111,130,99,132,0,0 // movdqa 0x8463(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -69763,7 +70507,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,163,135,0,0 // movaps 0x87a3(%edx),%xmm0
+ .byte 15,40,130,147,138,0,0 // movaps 0x8a93(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -70394,7 +71138,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4
+ .byte 102,15,111,161,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -70436,7 +71180,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1
+ .byte 102,15,254,137,215,120,0,0 // paddd 0x78d7(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -70451,7 +71195,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,23,124,0,0 // movaps 0x7c17(%ecx),%xmm7
+ .byte 15,40,185,7,127,0,0 // movaps 0x7f07(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -70472,7 +71216,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4
+ .byte 102,15,111,161,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -70508,7 +71252,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
+ .byte 102,15,254,129,215,120,0,0 // paddd 0x78d7(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -70592,7 +71336,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1
+ .byte 102,15,254,137,215,120,0,0 // paddd 0x78d7(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -70610,7 +71354,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
+ .byte 102,15,111,145,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -70646,7 +71390,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,231,117,0,0 // paddd 0x75e7(%ecx),%xmm5
+ .byte 102,15,254,169,215,120,0,0 // paddd 0x78d7(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -70706,7 +71450,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3
+ .byte 102,15,111,153,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -70745,7 +71489,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
+ .byte 102,15,254,129,215,120,0,0 // paddd 0x78d7(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -70797,7 +71541,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1
+ .byte 102,15,111,137,215,120,0,0 // movdqa 0x78d7(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -70831,7 +71575,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3
+ .byte 102,15,111,153,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -70888,7 +71632,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1
+ .byte 102,15,111,137,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -70925,7 +71669,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
+ .byte 102,15,254,129,215,120,0,0 // paddd 0x78d7(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -70993,7 +71737,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm0
+ .byte 102,15,111,129,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -71032,7 +71776,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
+ .byte 102,15,254,145,215,120,0,0 // paddd 0x78d7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -71084,7 +71828,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1
+ .byte 102,15,111,137,215,120,0,0 // movdqa 0x78d7(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -71119,7 +71863,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm5
+ .byte 102,15,111,169,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -71175,7 +71919,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
+ .byte 102,15,111,145,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -71211,7 +71955,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,231,117,0,0 // paddd 0x75e7(%ecx),%xmm7
+ .byte 102,15,254,185,215,120,0,0 // paddd 0x78d7(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -71261,7 +72005,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
+ .byte 102,15,111,145,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -71300,7 +72044,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
+ .byte 102,15,254,145,215,120,0,0 // paddd 0x78d7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -71354,7 +72098,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,231,117,0,0 // paddd 0x75e7(%ecx),%xmm3
+ .byte 102,15,254,153,215,120,0,0 // paddd 0x78d7(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -71387,7 +72131,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1
+ .byte 102,15,111,137,23,127,0,0 // movdqa 0x7f17(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -71427,7 +72171,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
+ .byte 102,15,254,129,215,120,0,0 // paddd 0x78d7(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -71481,7 +72225,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
+ .byte 102,15,254,145,215,120,0,0 // paddd 0x78d7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -71550,7 +72294,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,167,117,0,0 // movaps 0x75a7(%ecx),%xmm3
+ .byte 15,40,153,151,120,0,0 // movaps 0x7897(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -71571,15 +72315,15 @@ _sk_gauss_a_to_rgba_sse2:
.byte 232,0,0,0,0 // call 99ce <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,226,103,0,0 // movaps 0x67e2(%eax),%xmm0
+ .byte 15,40,128,210,106,0,0 // movaps 0x6ad2(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,242,103,0,0 // addps 0x67f2(%eax),%xmm0
+ .byte 15,88,128,226,106,0,0 // addps 0x6ae2(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,2,104,0,0 // addps 0x6802(%eax),%xmm0
+ .byte 15,88,128,242,106,0,0 // addps 0x6af2(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,18,104,0,0 // addps 0x6812(%eax),%xmm0
+ .byte 15,88,128,2,107,0,0 // addps 0x6b02(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,34,104,0,0 // addps 0x6822(%eax),%xmm0
+ .byte 15,88,128,18,107,0,0 // addps 0x6b12(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -71591,6 +72335,190 @@ _sk_gauss_a_to_rgba_sse2:
.byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
+
+HIDDEN _sk_bilerp_clamp_8888_sse2
+.globl _sk_bilerp_clamp_8888_sse2
+FUNCTION(_sk_bilerp_clamp_8888_sse2)
+_sk_bilerp_clamp_8888_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 83 // push %ebx
+ .byte 87 // push %edi
+ .byte 86 // push %esi
+ .byte 129,236,44,1,0,0 // sub $0x12c,%esp
+ .byte 232,0,0,0,0 // call 9a2c <_sk_bilerp_clamp_8888_sse2+0x11>
+ .byte 94 // pop %esi
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,56 // mov (%eax),%edi
+ .byte 15,40,158,212,99,0,0 // movaps 0x63d4(%esi),%xmm3
+ .byte 15,41,133,8,255,255,255 // movaps %xmm0,-0xf8(%ebp)
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,88,227 // addps %xmm3,%xmm4
+ .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
+ .byte 15,40,174,228,99,0,0 // movaps 0x63e4(%esi),%xmm5
+ .byte 15,84,213 // andps %xmm5,%xmm2
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,92,224 // subps %xmm0,%xmm4
+ .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
+ .byte 15,84,205 // andps %xmm5,%xmm1
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,92,216 // subps %xmm0,%xmm3
+ .byte 243,15,16,79,8 // movss 0x8(%edi),%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
+ .byte 102,15,254,200 // paddd %xmm0,%xmm1
+ .byte 102,15,127,141,40,255,255,255 // movdqa %xmm1,-0xd8(%ebp)
+ .byte 243,15,16,79,12 // movss 0xc(%edi),%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 102,15,254,200 // paddd %xmm0,%xmm1
+ .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,41,165,24,255,255,255 // movaps %xmm4,-0xe8(%ebp)
+ .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 15,41,133,88,255,255,255 // movaps %xmm0,-0xa8(%ebp)
+ .byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp)
+ .byte 15,92,235 // subps %xmm3,%xmm5
+ .byte 15,41,109,184 // movaps %xmm5,-0x48(%ebp)
+ .byte 139,23 // mov (%edi),%edx
+ .byte 102,15,110,71,4 // movd 0x4(%edi),%xmm0
+ .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
+ .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 243,15,16,134,200,107,0,0 // movss 0x6bc8(%esi),%xmm0
+ .byte 15,40,150,164,100,0,0 // movaps 0x64a4(%esi),%xmm2
+ .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
+ .byte 15,40,150,228,101,0,0 // movaps 0x65e4(%esi),%xmm2
+ .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
+ .byte 243,15,16,150,204,107,0,0 // movss 0x6bcc(%esi),%xmm2
+ .byte 243,15,17,85,236 // movss %xmm2,-0x14(%ebp)
+ .byte 243,15,16,150,196,107,0,0 // movss 0x6bc4(%esi),%xmm2
+ .byte 243,15,17,85,240 // movss %xmm2,-0x10(%ebp)
+ .byte 15,87,246 // xorps %xmm6,%xmm6
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
+ .byte 243,15,17,69,232 // movss %xmm0,-0x18(%ebp)
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,88,149,120,255,255,255 // addps -0x88(%ebp),%xmm2
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,95,194 // maxps %xmm2,%xmm0
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
+ .byte 15,46,226 // ucomiss %xmm2,%xmm4
+ .byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 119,8 // ja 9b6a <_sk_bilerp_clamp_8888_sse2+0x14f>
+ .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,93,69,152 // minps -0x68(%ebp),%xmm0
+ .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
+ .byte 102,15,111,101,168 // movdqa -0x58(%ebp),%xmm4
+ .byte 102,15,111,212 // movdqa %xmm4,%xmm2
+ .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
+ .byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
+ .byte 102,15,112,192,245 // pshufd $0xf5,%xmm0,%xmm0
+ .byte 102,15,112,212,245 // pshufd $0xf5,%xmm4,%xmm2
+ .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
+ .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
+ .byte 102,15,98,232 // punpckldq %xmm0,%xmm5
+ .byte 102,15,127,173,248,254,255,255 // movdqa %xmm5,-0x108(%ebp)
+ .byte 243,15,16,69,232 // movss -0x18(%ebp),%xmm0
+ .byte 15,41,157,232,254,255,255 // movaps %xmm3,-0x118(%ebp)
+ .byte 15,41,181,216,254,255,255 // movaps %xmm6,-0x128(%ebp)
+ .byte 102,15,127,141,200,254,255,255 // movdqa %xmm1,-0x138(%ebp)
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,88,141,8,255,255,255 // addps -0xf8(%ebp),%xmm1
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 15,95,225 // maxps %xmm1,%xmm4
+ .byte 15,93,165,40,255,255,255 // minps -0xd8(%ebp),%xmm4
+ .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
+ .byte 102,15,254,141,248,254,255,255 // paddd -0x108(%ebp),%xmm1
+ .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4
+ .byte 102,15,126,231 // movd %xmm4,%edi
+ .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
+ .byte 102,15,126,227 // movd %xmm4,%ebx
+ .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
+ .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
+ .byte 102,15,110,36,154 // movd (%edx,%ebx,4),%xmm4
+ .byte 102,15,98,225 // punpckldq %xmm1,%xmm4
+ .byte 102,15,110,44,178 // movd (%edx,%esi,4),%xmm5
+ .byte 102,15,110,12,186 // movd (%edx,%edi,4),%xmm1
+ .byte 102,15,98,233 // punpckldq %xmm1,%xmm5
+ .byte 102,15,108,236 // punpcklqdq %xmm4,%xmm5
+ .byte 102,15,111,205 // movdqa %xmm5,%xmm1
+ .byte 102,15,111,189,56,255,255,255 // movdqa -0xc8(%ebp),%xmm7
+ .byte 102,15,219,207 // pand %xmm7,%xmm1
+ .byte 15,91,241 // cvtdq2ps %xmm1,%xmm6
+ .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 102,15,111,205 // movdqa %xmm5,%xmm1
+ .byte 102,15,114,209,8 // psrld $0x8,%xmm1
+ .byte 102,15,219,207 // pand %xmm7,%xmm1
+ .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 102,15,111,229 // movdqa %xmm5,%xmm4
+ .byte 102,15,114,212,16 // psrld $0x10,%xmm4
+ .byte 102,15,219,231 // pand %xmm7,%xmm4
+ .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 102,15,114,213,24 // psrld $0x18,%xmm5
+ .byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,46,193 // ucomiss %xmm1,%xmm0
+ .byte 15,40,173,24,255,255,255 // movaps -0xe8(%ebp),%xmm5
+ .byte 119,7 // ja 9c89 <_sk_bilerp_clamp_8888_sse2+0x26e>
+ .byte 15,40,173,88,255,255,255 // movaps -0xa8(%ebp),%xmm5
+ .byte 15,89,109,200 // mulps -0x38(%ebp),%xmm5
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,40,141,200,254,255,255 // movaps -0x138(%ebp),%xmm1
+ .byte 15,88,202 // addps %xmm2,%xmm1
+ .byte 15,89,253 // mulps %xmm5,%xmm7
+ .byte 15,40,181,216,254,255,255 // movaps -0x128(%ebp),%xmm6
+ .byte 15,88,247 // addps %xmm7,%xmm6
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,40,157,232,254,255,255 // movaps -0x118(%ebp),%xmm3
+ .byte 15,88,221 // addps %xmm5,%xmm3
+ .byte 243,15,88,69,236 // addss -0x14(%ebp),%xmm0
+ .byte 243,15,16,85,240 // movss -0x10(%ebp),%xmm2
+ .byte 15,46,208 // ucomiss %xmm0,%xmm2
+ .byte 15,131,211,254,255,255 // jae 9ba8 <_sk_bilerp_clamp_8888_sse2+0x18d>
+ .byte 15,40,165,104,255,255,255 // movaps -0x98(%ebp),%xmm4
+ .byte 243,15,88,101,236 // addss -0x14(%ebp),%xmm4
+ .byte 243,15,16,69,240 // movss -0x10(%ebp),%xmm0
+ .byte 15,46,196 // ucomiss %xmm4,%xmm0
+ .byte 15,131,72,254,255,255 // jae 9b37 <_sk_bilerp_clamp_8888_sse2+0x11c>
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 129,196,60,1,0,0 // add $0x13c,%esp
+ .byte 94 // pop %esi
+ .byte 95 // pop %edi
+ .byte 91 // pop %ebx
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+ .byte 144 // nop
.byte 144 // nop
HIDDEN _sk_start_pipeline_sse2_lowp
@@ -71605,7 +72533,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 9af2 <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 9de6 <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -71619,7 +72547,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 9aa4 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 9d98 <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -71641,13 +72569,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 9a5a <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 9d4e <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 9ae8 <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 9ddc <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -71665,7 +72593,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 9a48 <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 9d3c <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -71688,7 +72616,7 @@ _sk_seed_shader_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9b08 <_sk_seed_shader_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9dfc <_sk_seed_shader_sse2_lowp+0xd>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
@@ -71709,7 +72637,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,210 // movd %edx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,145,8,96,0,0 // addps 0x6008(%ecx),%xmm2
+ .byte 15,88,145,4,96,0,0 // addps 0x6004(%ecx),%xmm2
.byte 141,78,8 // lea 0x8(%esi),%ecx
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
@@ -72039,7 +72967,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9f27 <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call a21b <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72058,7 +72986,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,217,98,0,0 // movaps 0x62d9(%eax),%xmm3
+ .byte 15,40,152,213,98,0,0 // movaps 0x62d5(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -72080,7 +73008,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9f92 <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call a286 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72099,7 +73027,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,110,98,0,0 // movaps 0x626e(%eax),%xmm0
+ .byte 15,40,128,106,98,0,0 // movaps 0x626a(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -72120,16 +73048,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ffc <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a2f0 <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,8,99,0,0 // movss 0x6308(%esi),%xmm2
+ .byte 243,15,16,150,12,99,0,0 // movss 0x630c(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,4,99,0,0 // movss 0x6304(%esi),%xmm1
+ .byte 243,15,16,142,0,99,0,0 // movss 0x6300(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -72178,12 +73106,12 @@ _sk_clamp_a_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a0c0 <_sk_clamp_a_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a3b4 <_sk_clamp_a_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 102,15,111,166,80,97,0,0 // movdqa 0x6150(%esi),%xmm4
+ .byte 102,15,111,166,76,97,0,0 // movdqa 0x614c(%esi),%xmm4
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,239,236 // pxor %xmm4,%xmm5
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -72239,11 +73167,11 @@ _sk_clamp_a_dst_sse2_lowp:
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call a187 <_sk_clamp_a_dst_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call a47b <_sk_clamp_a_dst_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,77,24 // movdqa 0x18(%ebp),%xmm1
- .byte 102,15,111,144,137,96,0,0 // movdqa 0x6089(%eax),%xmm2
+ .byte 102,15,111,144,133,96,0,0 // movdqa 0x6085(%eax),%xmm2
.byte 102,15,111,249 // movdqa %xmm1,%xmm7
.byte 102,15,239,250 // pxor %xmm2,%xmm7
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -72300,7 +73228,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a256 <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a54a <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -72309,7 +73237,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,170,95,0,0 // movdqa 0x5faa(%edx),%xmm7
+ .byte 102,15,111,186,166,95,0,0 // movdqa 0x5fa6(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -72349,12 +73277,12 @@ _sk_premul_dst_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a2eb <_sk_premul_dst_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call a5df <_sk_premul_dst_sse2_lowp+0x1a>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,213,236 // pmullw %xmm4,%xmm5
- .byte 102,15,111,176,21,95,0,0 // movdqa 0x5f15(%eax),%xmm6
+ .byte 102,15,111,176,17,95,0,0 // movdqa 0x5f11(%eax),%xmm6
.byte 102,15,253,238 // paddw %xmm6,%xmm5
.byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7
.byte 102,15,213,252 // pmullw %xmm4,%xmm7
@@ -72496,12 +73424,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a47a <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a76e <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,134,93,0,0 // movdqa 0x5d86(%eax),%xmm4
+ .byte 102,15,111,160,130,93,0,0 // movdqa 0x5d82(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -72583,11 +73511,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a572 <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call a866 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,142,92,0,0 // movdqa 0x5c8e(%eax),%xmm0
+ .byte 102,15,111,128,138,92,0,0 // movdqa 0x5c8a(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -72645,12 +73573,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a646 <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a93a <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,186,91,0,0 // movdqa 0x5bba(%eax),%xmm7
+ .byte 102,15,111,184,182,91,0,0 // movdqa 0x5bb6(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -72703,7 +73631,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a707 <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a9fb <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -72712,7 +73640,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,249,90,0,0 // movdqa 0x5af9(%esi),%xmm7
+ .byte 102,15,111,190,245,90,0,0 // movdqa 0x5af5(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -72751,14 +73679,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a79e <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call aa92 <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,98,90,0,0 // movdqa 0x5a62(%eax),%xmm7
+ .byte 102,15,111,184,94,90,0,0 // movdqa 0x5a5e(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -72802,14 +73730,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a846 <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ab3a <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,186,89,0,0 // movdqa 0x59ba(%esi),%xmm6
+ .byte 102,15,111,182,182,89,0,0 // movdqa 0x59b6(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -72853,11 +73781,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call a8e9 <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call abdd <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,23,89,0,0 // movdqa 0x5917(%eax),%xmm7
+ .byte 102,15,111,184,19,89,0,0 // movdqa 0x5913(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -72909,9 +73837,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call a9a5 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call ac99 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,91,88,0,0 // movdqa 0x585b(%eax),%xmm1
+ .byte 102,15,111,136,87,88,0,0 // movdqa 0x5857(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -72970,7 +73898,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call aa75 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ad69 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72978,7 +73906,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,139,87,0,0 // movdqa 0x578b(%edi),%xmm6
+ .byte 102,15,111,183,135,87,0,0 // movdqa 0x5787(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73024,12 +73952,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ab2a <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ae1e <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,214,86,0,0 // movdqa 0x56d6(%eax),%xmm7
+ .byte 102,15,111,184,210,86,0,0 // movdqa 0x56d2(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73072,10 +74000,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call abc6 <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call aeba <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,58,86,0,0 // movdqa 0x563a(%eax),%xmm4
+ .byte 102,15,111,160,54,86,0,0 // movdqa 0x5636(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -73145,17 +74073,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call acc7 <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call afbb <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,89,85,0,0 // movdqa 0x5559(%eax),%xmm5
+ .byte 102,15,111,168,85,85,0,0 // movdqa 0x5555(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,57,85,0,0 // movdqa 0x5539(%eax),%xmm6
+ .byte 102,15,111,176,53,85,0,0 // movdqa 0x5535(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -73216,14 +74144,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call adbf <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call b0b3 <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,65,84,0,0 // movdqa 0x5441(%eax),%xmm6
+ .byte 102,15,111,176,61,84,0,0 // movdqa 0x543d(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -73281,9 +74209,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call ae9f <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call b193 <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,97,83,0,0 // movdqa 0x5361(%eax),%xmm6
+ .byte 102,15,111,176,93,83,0,0 // movdqa 0x535d(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73350,7 +74278,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call af94 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b288 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -73361,7 +74289,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,124,82,0,0 // movdqa 0x527c(%eax),%xmm7
+ .byte 102,15,111,184,120,82,0,0 // movdqa 0x5278(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -73370,7 +74298,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,108,82,0,0 // movdqa 0x526c(%eax),%xmm0
+ .byte 102,15,111,128,104,82,0,0 // movdqa 0x5268(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -73461,7 +74389,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b13d <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b431 <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -73470,7 +74398,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,211,80,0,0 // movdqa 0x50d3(%eax),%xmm7
+ .byte 102,15,111,184,207,80,0,0 // movdqa 0x50cf(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -73479,7 +74407,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,195,80,0,0 // movdqa 0x50c3(%eax),%xmm0
+ .byte 102,15,111,128,191,80,0,0 // movdqa 0x50bf(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -73569,7 +74497,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b2db <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b5cf <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -73580,7 +74508,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,53,79,0,0 // movdqa 0x4f35(%eax),%xmm7
+ .byte 102,15,111,184,49,79,0,0 // movdqa 0x4f31(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -73589,11 +74517,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,37,79,0,0 // movdqa 0x4f25(%eax),%xmm0
+ .byte 102,15,111,128,33,79,0,0 // movdqa 0x4f21(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,85,79,0,0 // movdqa 0x4f55(%eax),%xmm0
+ .byte 102,15,111,128,81,79,0,0 // movdqa 0x4f51(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -73682,16 +74610,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b48f <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call b783 <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,113,77,0,0 // movdqa 0x4d71(%eax),%xmm7
+ .byte 102,15,111,184,109,77,0,0 // movdqa 0x4d6d(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,161,77,0,0 // movdqa 0x4da1(%eax),%xmm6
+ .byte 102,15,111,176,157,77,0,0 // movdqa 0x4d9d(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -73752,9 +74680,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call b589 <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call b87d <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,119,76,0,0 // movdqa 0x4c77(%eax),%xmm7
+ .byte 102,15,111,184,115,76,0,0 // movdqa 0x4c73(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -73781,7 +74709,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,135,76,0,0 // movdqa 0x4c87(%eax),%xmm0
+ .byte 102,15,111,128,131,76,0,0 // movdqa 0x4c83(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -73888,10 +74816,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b7ab <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call ba9f <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,85,74,0,0 // movdqa 0x4a55(%eax),%xmm7
+ .byte 102,15,111,184,81,74,0,0 // movdqa 0x4a51(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -73918,7 +74846,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,101,74,0,0 // movdqa 0x4a65(%eax),%xmm2
+ .byte 102,15,111,144,97,74,0,0 // movdqa 0x4a61(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -74048,10 +74976,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ba1a <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call bd0e <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja ba40 <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja bd34 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
@@ -74060,14 +74988,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp bd7d <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp bd7d <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp bd7d <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -74084,7 +75012,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,230,71,0,0 // movdqa 0x47e6(%edi),%xmm5
+ .byte 102,15,111,175,226,71,0,0 // movdqa 0x47e2(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -74163,10 +75091,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bba5 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call be99 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja bbcb <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja bebf <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -74175,14 +75103,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp bf08 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp bf08 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp bf08 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -74199,7 +75127,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,91,70,0,0 // movdqa 0x465b(%edi),%xmm2
+ .byte 102,15,111,151,87,70,0,0 // movdqa 0x4657(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -74293,19 +75221,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call bd70 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call c064 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja bd8d <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja c081 <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp c0de <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp c0de <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -74313,7 +75241,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp c0de <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -74350,7 +75278,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne be36 <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne c12a <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -74382,10 +75310,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call be74 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call c168 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja be9a <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja c18e <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -74394,14 +75322,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp c1d7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp c1d7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp c1d7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -74418,7 +75346,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,140,67,0,0 // movdqa 0x438c(%edi),%xmm5
+ .byte 102,15,111,175,136,67,0,0 // movdqa 0x4388(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -74498,10 +75426,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c001 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call c2f5 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c027 <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja c31b <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -74510,14 +75438,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp c364 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp c364 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp c364 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -74534,7 +75462,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,255,65,0,0 // movdqa 0x41ff(%edi),%xmm2
+ .byte 102,15,111,151,251,65,0,0 // movdqa 0x41fb(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -74628,19 +75556,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call c1cc <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call c4c0 <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja c1e9 <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja c4dd <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp c53a <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp c53a <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -74648,7 +75576,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp c53a <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -74685,7 +75613,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne c292 <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne c586 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -74704,7 +75632,7 @@ _sk_gather_8888_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
- .byte 232,0,0,0,0 // call c2ad <_sk_gather_8888_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c5a1 <_sk_gather_8888_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -74796,7 +75724,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,216 // packssdw %xmm0,%xmm3
- .byte 102,15,111,186,83,63,0,0 // movdqa 0x3f53(%edx),%xmm7
+ .byte 102,15,111,186,79,63,0,0 // movdqa 0x3f4f(%edx),%xmm7
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,212,16 // psrld $0x10,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -74835,7 +75763,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call c4a8 <_sk_gather_bgra_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c79c <_sk_gather_bgra_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -74926,7 +75854,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,218 // packssdw %xmm2,%xmm3
- .byte 102,15,111,162,88,61,0,0 // movdqa 0x3d58(%edx),%xmm4
+ .byte 102,15,111,162,84,61,0,0 // movdqa 0x3d54(%edx),%xmm4
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,215,16 // psrld $0x10,%xmm7
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
@@ -74981,10 +75909,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c6cc <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call c9c0 <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja c6ee <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja c9e2 <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,244,0,0,0 // mov 0xf4(%esi,%ecx,4),%ecx
@@ -74992,14 +75920,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp ca1d <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp ca1d <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp ca1d <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -75007,11 +75935,11 @@ _sk_load_565_sse2_lowp:
.byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,116,59,0,0 // pand 0x3b74(%esi),%xmm7
+ .byte 102,15,219,190,112,59,0,0 // pand 0x3b70(%esi),%xmm7
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,132,59,0,0 // pand 0x3b84(%esi),%xmm1
- .byte 102,15,111,150,148,59,0,0 // movdqa 0x3b94(%esi),%xmm2
+ .byte 102,15,219,142,128,59,0,0 // pand 0x3b80(%esi),%xmm1
+ .byte 102,15,111,150,144,59,0,0 // movdqa 0x3b90(%esi),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -75033,7 +75961,7 @@ _sk_load_565_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,52,59,0,0 // movaps 0x3b34(%esi),%xmm3
+ .byte 15,40,158,48,59,0,0 // movaps 0x3b30(%esi),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
@@ -75079,10 +76007,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c807 <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call cafb <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c829 <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja cb1d <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -75090,14 +76018,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp cb58 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp cb58 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp cb58 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -75105,11 +76033,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,57,58,0,0 // pand 0x3a39(%edi),%xmm6
+ .byte 102,15,219,183,53,58,0,0 // pand 0x3a35(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,73,58,0,0 // pand 0x3a49(%edi),%xmm5
- .byte 102,15,111,191,89,58,0,0 // movdqa 0x3a59(%edi),%xmm7
+ .byte 102,15,219,175,69,58,0,0 // pand 0x3a45(%edi),%xmm5
+ .byte 102,15,111,191,85,58,0,0 // movdqa 0x3a55(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -75122,7 +76050,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,249,57,0,0 // movaps 0x39f9(%edi),%xmm6
+ .byte 15,40,183,245,57,0,0 // movaps 0x39f5(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -75167,15 +76095,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call c92e <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call cc22 <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,66,57,0,0 // pand 0x3942(%edi),%xmm2
+ .byte 102,15,219,151,62,57,0,0 // pand 0x393e(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,82,57,0,0 // pand 0x3952(%edi),%xmm6
+ .byte 102,15,219,183,78,57,0,0 // pand 0x394e(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -75194,19 +76122,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja c9a6 <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja cc9a <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp ccd5 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp ccd5 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp ccd5 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -75282,7 +76210,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,244,242 // pmuludq %xmm2,%xmm6
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 232,0,0,0,0 // call cab4 <_sk_gather_565_sse2_lowp+0x78>
+ .byte 232,0,0,0,0 // call cda8 <_sk_gather_565_sse2_lowp+0x78>
.byte 89 // pop %ecx
.byte 139,50 // mov (%edx),%esi
.byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
@@ -75343,11 +76271,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,198 // punpcklqdq %xmm6,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,219,169,140,55,0,0 // pand 0x378c(%ecx),%xmm5
+ .byte 102,15,219,169,136,55,0,0 // pand 0x3788(%ecx),%xmm5
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,137,156,55,0,0 // pand 0x379c(%ecx),%xmm1
- .byte 102,15,111,145,172,55,0,0 // movdqa 0x37ac(%ecx),%xmm2
+ .byte 102,15,219,137,152,55,0,0 // pand 0x3798(%ecx),%xmm1
+ .byte 102,15,111,145,168,55,0,0 // movdqa 0x37a8(%ecx),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,197 // por %xmm5,%xmm0
@@ -75369,7 +76297,7 @@ _sk_gather_565_sse2_lowp:
.byte 137,116,36,8 // mov %esi,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,153,76,55,0,0 // movaps 0x374c(%ecx),%xmm3
+ .byte 15,40,153,72,55,0,0 // movaps 0x3748(%ecx),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,108 // add $0x6c,%esp
.byte 94 // pop %esi
@@ -75402,10 +76330,10 @@ _sk_load_4444_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cc6e <_sk_load_4444_sse2_lowp+0x37>
+ .byte 232,0,0,0,0 // call cf62 <_sk_load_4444_sse2_lowp+0x37>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cc90 <_sk_load_4444_sse2_lowp+0x59>
+ .byte 119,28 // ja cf84 <_sk_load_4444_sse2_lowp+0x59>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,250,0,0,0 // mov 0xfa(%edi,%ecx,4),%ecx
@@ -75413,14 +76341,14 @@ _sk_load_4444_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,59 // jmp cfbf <_sk_load_4444_sse2_lowp+0x94>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,52 // jmp cfbf <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,4,115 // movss (%ebx,%esi,2),%xmm0
.byte 243,15,16,224 // movss %xmm0,%xmm4
- .byte 235,30 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,30 // jmp cfbf <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -75430,7 +76358,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,135,34,54,0,0 // movdqa 0x3622(%edi),%xmm0
+ .byte 102,15,111,135,30,54,0,0 // movdqa 0x361e(%edi),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -75505,10 +76433,10 @@ _sk_load_4444_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cdb3 <_sk_load_4444_dst_sse2_lowp+0x2f>
+ .byte 232,0,0,0,0 // call d0a7 <_sk_load_4444_dst_sse2_lowp+0x2f>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cdd5 <_sk_load_4444_dst_sse2_lowp+0x51>
+ .byte 119,28 // ja d0c9 <_sk_load_4444_dst_sse2_lowp+0x51>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,253,0,0,0 // mov 0xfd(%edi,%ecx,4),%ecx
@@ -75516,14 +76444,14 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,249 // movd %ecx,%xmm7
- .byte 235,59 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,59 // jmp d104 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 243,15,111,60,115 // movdqu (%ebx,%esi,2),%xmm7
- .byte 235,52 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,52 // jmp d104 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,253 // movss %xmm5,%xmm7
- .byte 235,30 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,30 // jmp d104 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7
.byte 102,15,196,124,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7
@@ -75533,7 +76461,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,159,221,52,0,0 // movdqa 0x34dd(%edi),%xmm3
+ .byte 102,15,111,159,217,52,0,0 // movdqa 0x34d9(%edi),%xmm3
.byte 102,15,219,243 // pand %xmm3,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,113,212,4 // psrlw $0x4,%xmm4
@@ -75597,16 +76525,16 @@ _sk_store_4444_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 232,0,0,0,0 // call cede <_sk_store_4444_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call d1d2 <_sk_store_4444_sse2_lowp+0x12>
.byte 94 // pop %esi
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,219,158,194,51,0,0 // pand 0x33c2(%esi),%xmm3
+ .byte 102,15,219,158,190,51,0,0 // pand 0x33be(%esi),%xmm3
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,219,182,210,51,0,0 // pand 0x33d2(%esi),%xmm6
+ .byte 102,15,219,182,206,51,0,0 // pand 0x33ce(%esi),%xmm6
.byte 102,15,235,243 // por %xmm3,%xmm6
- .byte 102,15,111,174,226,51,0,0 // movdqa 0x33e2(%esi),%xmm5
+ .byte 102,15,111,174,222,51,0,0 // movdqa 0x33de(%esi),%xmm5
.byte 102,15,219,234 // pand %xmm2,%xmm5
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -75627,19 +76555,19 @@ _sk_store_4444_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,125,16 // mov 0x10(%ebp),%edi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja cf66 <_sk_store_4444_sse2_lowp+0x9a>
+ .byte 119,22 // ja d25a <_sk_store_4444_sse2_lowp+0x9a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,180,142,2,1,0,0 // add 0x102(%esi,%ecx,4),%esi
.byte 255,230 // jmp *%esi
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 102,137,12,123 // mov %cx,(%ebx,%edi,2)
- .byte 235,59 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,59 // jmp d295 <_sk_store_4444_sse2_lowp+0xd5>
.byte 243,15,127,28,123 // movdqu %xmm3,(%ebx,%edi,2)
- .byte 235,52 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,52 // jmp d295 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 102,137,76,123,4 // mov %cx,0x4(%ebx,%edi,2)
.byte 102,15,126,28,123 // movd %xmm3,(%ebx,%edi,2)
- .byte 235,35 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,35 // jmp d295 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 102,137,76,123,12 // mov %cx,0xc(%ebx,%edi,2)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -75667,7 +76595,7 @@ _sk_store_4444_sse2_lowp:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 15,31,0 // nopl (%eax)
- .byte 126,0 // jle cfe2 <_sk_store_4444_sse2_lowp+0x116>
+ .byte 126,0 // jle d2d6 <_sk_store_4444_sse2_lowp+0x116>
.byte 0,0 // add %al,(%eax)
.byte 153 // cltd
.byte 0,0 // add %al,(%eax)
@@ -75688,7 +76616,7 @@ _sk_gather_4444_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d009 <_sk_gather_4444_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call d2fd <_sk_gather_4444_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -75776,7 +76704,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,130,135,50,0,0 // movdqa 0x3287(%edx),%xmm0
+ .byte 102,15,111,130,131,50,0,0 // movdqa 0x3283(%edx),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -75836,10 +76764,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d226 <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call d51a <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d248 <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja d53c <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -75847,10 +76775,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp d596 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp d596 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -75858,7 +76786,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp d596 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -75869,7 +76797,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,218,47,0,0 // pand 0x2fda(%edi),%xmm3
+ .byte 102,15,219,159,214,47,0,0 // pand 0x2fd6(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -75924,10 +76852,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d331 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call d625 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d353 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja d647 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -75935,10 +76863,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp d6a1 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp d6a1 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -75946,7 +76874,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp d6a1 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -75957,7 +76885,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,207,46,0,0 // pand 0x2ecf(%edi),%xmm4
+ .byte 102,15,219,167,203,46,0,0 // pand 0x2ecb(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -76014,32 +76942,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d449 <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d73d <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja d469 <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja d75d <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp d7e5 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp d7e5 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
+ .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp d7e5 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -76049,7 +76977,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
+ .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -76083,7 +77011,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je d53a <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je d82e <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -76223,10 +77151,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d6fc <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d9f0 <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja d71e <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja da12 <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,200,0,0,0 // mov 0xc8(%esi,%ecx,4),%ecx
@@ -76234,10 +77162,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp da6c <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp da6c <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -76245,7 +77173,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp da6c <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -76256,7 +77184,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,4,43,0,0 // pand 0x2b04(%esi),%xmm0
+ .byte 102,15,219,134,0,43,0,0 // pand 0x2b00(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -76267,7 +77195,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,4,43,0,0 // movaps 0x2b04(%esi),%xmm3
+ .byte 15,40,158,0,43,0,0 // movaps 0x2b00(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -76311,10 +77239,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d809 <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call dafd <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d82b <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja db1f <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -76322,10 +77250,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp db79 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp db79 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76333,7 +77261,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp db79 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76344,9 +77272,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,247,41,0,0 // pand 0x29f7(%edi),%xmm4
+ .byte 102,15,219,167,243,41,0,0 // pand 0x29f3(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,247,41,0,0 // movaps 0x29f7(%edi),%xmm5
+ .byte 15,40,175,243,41,0,0 // movaps 0x29f3(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -76387,7 +77315,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call d8f9 <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call dbed <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -76397,10 +77325,10 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,215,41,0,0 // pmullw 0x29d7(%eax),%xmm0
- .byte 102,15,213,136,231,41,0,0 // pmullw 0x29e7(%eax),%xmm1
+ .byte 102,15,213,128,211,41,0,0 // pmullw 0x29d3(%eax),%xmm0
+ .byte 102,15,213,136,227,41,0,0 // pmullw 0x29e3(%eax),%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,247,41,0,0 // pmullw 0x29f7(%eax),%xmm3
+ .byte 102,15,213,152,243,41,0,0 // pmullw 0x29f3(%eax),%xmm3
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 141,71,4 // lea 0x4(%edi),%eax
@@ -76481,7 +77409,7 @@ _sk_gather_g8_sse2_lowp:
.byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
- .byte 232,0,0,0,0 // call da3e <_sk_gather_g8_sse2_lowp+0xc9>
+ .byte 232,0,0,0,0 // call dd32 <_sk_gather_g8_sse2_lowp+0xc9>
.byte 89 // pop %ecx
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
@@ -76525,7 +77453,7 @@ _sk_gather_g8_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,60,36 // mov %edi,(%esp)
- .byte 15,40,153,194,39,0,0 // movaps 0x27c2(%ecx),%xmm3
+ .byte 15,40,153,190,39,0,0 // movaps 0x27be(%ecx),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -76545,15 +77473,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call db0f <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call de03 <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,245,39,0,0 // mulss 0x27f5(%esi),%xmm4
- .byte 243,15,88,166,241,39,0,0 // addss 0x27f1(%esi),%xmm4
+ .byte 243,15,89,166,249,39,0,0 // mulss 0x27f9(%esi),%xmm4
+ .byte 243,15,88,166,237,39,0,0 // addss 0x27ed(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -76566,7 +77494,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,241,38,0,0 // movdqa 0x26f1(%esi),%xmm5
+ .byte 102,15,111,174,237,38,0,0 // movdqa 0x26ed(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -76605,19 +77533,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call dbdd <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call ded1 <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,39,39,0,0 // mulss 0x2727(%ecx),%xmm6
- .byte 243,15,88,177,35,39,0,0 // addss 0x2723(%ecx),%xmm6
+ .byte 243,15,89,177,43,39,0,0 // mulss 0x272b(%ecx),%xmm6
+ .byte 243,15,88,177,31,39,0,0 // addss 0x271f(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,35,38,0,0 // movdqa 0x2623(%ecx),%xmm0
+ .byte 102,15,111,129,31,38,0,0 // movdqa 0x261f(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -76690,10 +77618,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dd06 <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call dffa <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja dd28 <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja e01c <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,2,1,0,0 // mov 0x102(%edi,%ecx,4),%ecx
@@ -76701,10 +77629,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp e076 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp e076 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76712,7 +77640,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp e076 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76723,9 +77651,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,250,36,0,0 // pand 0x24fa(%edi),%xmm4
+ .byte 102,15,219,167,246,36,0,0 // pand 0x24f6(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,250,36,0,0 // movdqa 0x24fa(%edi),%xmm5
+ .byte 102,15,111,175,246,36,0,0 // movdqa 0x24f6(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -76792,10 +77720,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call de52 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call e146 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja de74 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja e168 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -76803,10 +77731,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp e1c2 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp e1c2 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -76814,7 +77742,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp e1c2 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -76825,8 +77753,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,174,35,0,0 // pand 0x23ae(%edi),%xmm3
- .byte 102,15,111,183,174,35,0,0 // movdqa 0x23ae(%edi),%xmm6
+ .byte 102,15,219,159,170,35,0,0 // pand 0x23aa(%edi),%xmm3
+ .byte 102,15,111,183,170,35,0,0 // movdqa 0x23aa(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -76915,10 +77843,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dffb <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call e2ef <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e01d <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja e311 <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -76926,14 +77854,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e34c <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e34c <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e34c <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76941,11 +77869,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,69,34,0,0 // pand 0x2245(%edi),%xmm1
+ .byte 102,15,219,143,65,34,0,0 // pand 0x2241(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,85,34,0,0 // pand 0x2255(%edi),%xmm2
- .byte 102,15,111,135,101,34,0,0 // movdqa 0x2265(%edi),%xmm0
+ .byte 102,15,219,151,81,34,0,0 // pand 0x2251(%edi),%xmm2
+ .byte 102,15,111,135,97,34,0,0 // movdqa 0x2261(%edi),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76958,7 +77886,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,113,208,2 // psrlw $0x2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,21,34,0,0 // movdqa 0x2215(%edi),%xmm4
+ .byte 102,15,111,167,17,34,0,0 // movdqa 0x2211(%edi),%xmm4
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 102,15,239,244 // pxor %xmm4,%xmm6
.byte 102,15,239,252 // pxor %xmm4,%xmm7
@@ -77001,7 +77929,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
.byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,5,34,0,0 // movdqa 0x2205(%edi),%xmm0
+ .byte 102,15,111,135,1,34,0,0 // movdqa 0x2201(%edi),%xmm0
.byte 102,15,253,216 // paddw %xmm0,%xmm3
.byte 102,15,253,208 // paddw %xmm0,%xmm2
.byte 102,15,253,224 // paddw %xmm0,%xmm4
@@ -77078,10 +78006,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e253 <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call e547 <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e275 <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja e569 <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -77089,14 +78017,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e5a4 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e5a4 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e5a4 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -77104,11 +78032,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,237,31,0,0 // pand 0x1fed(%edi),%xmm1
+ .byte 102,15,219,143,233,31,0,0 // pand 0x1fe9(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,253,31,0,0 // pand 0x1ffd(%edi),%xmm2
- .byte 102,15,111,175,13,32,0,0 // movdqa 0x200d(%edi),%xmm5
+ .byte 102,15,219,151,249,31,0,0 // pand 0x1ff9(%edi),%xmm2
+ .byte 102,15,111,175,9,32,0,0 // movdqa 0x2009(%edi),%xmm5
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -77121,7 +78049,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,113,213,2 // psrlw $0x2,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
.byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,189,31,0,0 // movdqa 0x1fbd(%edi),%xmm4
+ .byte 102,15,111,167,185,31,0,0 // movdqa 0x1fb9(%edi),%xmm4
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -77162,7 +78090,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,235,249 // por %xmm1,%xmm7
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,173,31,0,0 // movdqa 0x1fad(%edi),%xmm1
+ .byte 102,15,111,143,169,31,0,0 // movdqa 0x1fa9(%edi),%xmm1
.byte 102,15,239,193 // pxor %xmm1,%xmm0
.byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -77242,7 +78170,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e4c5 <_sk_clamp_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e7b9 <_sk_clamp_x_1_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -77253,7 +78181,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,95,207 // maxps %xmm7,%xmm1
.byte 15,95,199 // maxps %xmm7,%xmm0
- .byte 15,40,184,91,22,0,0 // movaps 0x165b(%eax),%xmm7
+ .byte 15,40,184,87,22,0,0 // movaps 0x1657(%eax),%xmm7
.byte 15,93,199 // minps %xmm7,%xmm0
.byte 15,93,207 // minps %xmm7,%xmm1
.byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
@@ -77283,7 +78211,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e534 <_sk_repeat_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e828 <_sk_repeat_x_1_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -77294,7 +78222,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,194,244,1 // cmpltps %xmm4,%xmm6
- .byte 15,40,190,236,21,0,0 // movaps 0x15ec(%esi),%xmm7
+ .byte 15,40,190,232,21,0,0 // movaps 0x15e8(%esi),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,92,230 // subps %xmm6,%xmm4
.byte 15,40,240 // movaps %xmm0,%xmm6
@@ -77342,19 +78270,19 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e5de <_sk_mirror_x_1_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call e8d2 <_sk_mirror_x_1_sse2_lowp+0x1a>
.byte 88 // pop %eax
- .byte 15,40,160,178,21,0,0 // movaps 0x15b2(%eax),%xmm4
+ .byte 15,40,160,174,21,0,0 // movaps 0x15ae(%eax),%xmm4
.byte 15,88,204 // addps %xmm4,%xmm1
.byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,176,50,21,0,0 // movaps 0x1532(%eax),%xmm6
+ .byte 15,40,176,46,21,0,0 // movaps 0x152e(%eax),%xmm6
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 243,15,91,238 // cvttps2dq %xmm6,%xmm5
.byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
.byte 15,194,240,1 // cmpltps %xmm0,%xmm6
- .byte 15,40,168,66,21,0,0 // movaps 0x1542(%eax),%xmm5
+ .byte 15,40,168,62,21,0,0 // movaps 0x153e(%eax),%xmm5
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 243,15,91,247 // cvttps2dq %xmm7,%xmm6
@@ -77373,7 +78301,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 15,88,212 // addps %xmm4,%xmm2
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,160,66,26,0,0 // movaps 0x1a42(%eax),%xmm4
+ .byte 15,40,160,62,26,0,0 // movaps 0x1a3e(%eax),%xmm4
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 15,84,212 // andps %xmm4,%xmm2
.byte 15,87,228 // xorps %xmm4,%xmm4
@@ -77414,7 +78342,7 @@ _sk_gradient_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 129,236,108,1,0,0 // sub $0x16c,%esp
- .byte 232,0,0,0,0 // call e6bc <_sk_gradient_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call e9b0 <_sk_gradient_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 137,69,164 // mov %eax,-0x5c(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -77424,7 +78352,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 131,248,2 // cmp $0x2,%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 114,48 // jb e706 <_sk_gradient_sse2_lowp+0x5b>
+ .byte 114,48 // jb e9fa <_sk_gradient_sse2_lowp+0x5b>
.byte 139,78,36 // mov 0x24(%esi),%ecx
.byte 72 // dec %eax
.byte 131,193,4 // add $0x4,%ecx
@@ -77439,7 +78367,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,234 // psubd %xmm2,%xmm5
.byte 131,193,4 // add $0x4,%ecx
.byte 72 // dec %eax
- .byte 117,223 // jne e6e5 <_sk_gradient_sse2_lowp+0x3a>
+ .byte 117,223 // jne e9d9 <_sk_gradient_sse2_lowp+0x3a>
.byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
@@ -77646,10 +78574,10 @@ _sk_gradient_sse2_lowp:
.byte 15,89,195 // mulps %xmm3,%xmm0
.byte 15,88,194 // addps %xmm2,%xmm0
.byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,136,52,21,0,0 // movaps 0x1534(%eax),%xmm1
+ .byte 15,40,136,48,21,0,0 // movaps 0x1530(%eax),%xmm1
.byte 15,89,225 // mulps %xmm1,%xmm4
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,144,84,20,0,0 // movaps 0x1454(%eax),%xmm2
+ .byte 15,40,144,80,20,0,0 // movaps 0x1450(%eax),%xmm2
.byte 15,88,194 // addps %xmm2,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,88,226 // addps %xmm2,%xmm4
@@ -77765,7 +78693,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 129,236,92,1,0,0 // sub $0x15c,%esp
.byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
.byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 232,0,0,0,0 // call ec2e <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call ef22 <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,48 // mov (%eax),%esi
@@ -77776,12 +78704,12 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 137,85,164 // mov %edx,-0x5c(%ebp)
- .byte 102,15,111,154,98,20,0,0 // movdqa 0x1462(%edx),%xmm3
+ .byte 102,15,111,154,94,20,0,0 // movdqa 0x145e(%edx),%xmm3
.byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 102,15,235,154,34,18,0,0 // por 0x1222(%edx),%xmm3
+ .byte 102,15,235,154,30,18,0,0 // por 0x121e(%edx),%xmm3
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,235,146,114,20,0,0 // por 0x1472(%edx),%xmm2
- .byte 15,88,146,130,20,0,0 // addps 0x1482(%edx),%xmm2
+ .byte 102,15,235,146,110,20,0,0 // por 0x146e(%edx),%xmm2
+ .byte 15,88,146,126,20,0,0 // addps 0x147e(%edx),%xmm2
.byte 15,88,211 // addps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
@@ -77988,10 +78916,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,89,69,136 // mulps -0x78(%ebp),%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
.byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,152,194,15,0,0 // movaps 0xfc2(%eax),%xmm3
+ .byte 15,40,152,190,15,0,0 // movaps 0xfbe(%eax),%xmm3
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,168,226,14,0,0 // movaps 0xee2(%eax),%xmm5
+ .byte 15,40,168,222,14,0,0 // movaps 0xede(%eax),%xmm5
.byte 15,88,197 // addps %xmm5,%xmm0
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,88,229 // addps %xmm5,%xmm4
@@ -78101,7 +79029,7 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call f16d <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
+ .byte 232,0,0,0,0 // call f461 <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -78116,10 +79044,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,88,227 // addps %xmm3,%xmm4
.byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,40,154,131,10,0,0 // movaps 0xa83(%edx),%xmm3
+ .byte 15,40,154,127,10,0,0 // movaps 0xa7f(%edx),%xmm3
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,130,163,9,0,0 // movaps 0x9a3(%edx),%xmm0
+ .byte 15,40,130,159,9,0,0 // movaps 0x99f(%edx),%xmm0
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,237 // cvttps2dq %xmm5,%xmm5
@@ -78236,9 +79164,9 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 232,0,0,0,0 // call f358 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
+ .byte 232,0,0,0,0 // call f64c <_sk_xy_to_unit_angle_sse2_lowp+0x23>
.byte 88 // pop %eax
- .byte 15,40,128,200,12,0,0 // movaps 0xcc8(%eax),%xmm0
+ .byte 15,40,128,196,12,0,0 // movaps 0xcc4(%eax),%xmm0
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,84,224 // andps %xmm0,%xmm4
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -78273,24 +79201,24 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,89,219 // mulps %xmm3,%xmm3
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
- .byte 15,40,136,104,13,0,0 // movaps 0xd68(%eax),%xmm1
+ .byte 15,40,136,100,13,0,0 // movaps 0xd64(%eax),%xmm1
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,120,13,0,0 // addps 0xd78(%eax),%xmm1
- .byte 15,88,128,120,13,0,0 // addps 0xd78(%eax),%xmm0
+ .byte 15,88,136,116,13,0,0 // addps 0xd74(%eax),%xmm1
+ .byte 15,88,128,116,13,0,0 // addps 0xd74(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,136,13,0,0 // addps 0xd88(%eax),%xmm1
- .byte 15,88,128,136,13,0,0 // addps 0xd88(%eax),%xmm0
+ .byte 15,88,136,132,13,0,0 // addps 0xd84(%eax),%xmm1
+ .byte 15,88,128,132,13,0,0 // addps 0xd84(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,152,152,13,0,0 // movaps 0xd98(%eax),%xmm3
+ .byte 15,40,152,148,13,0,0 // movaps 0xd94(%eax),%xmm3
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,88,195 // addps %xmm3,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,152,168,13,0,0 // movaps 0xda8(%eax),%xmm3
+ .byte 15,40,152,164,13,0,0 // movaps 0xda4(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,92,216 // subps %xmm0,%xmm3
.byte 15,84,218 // andps %xmm2,%xmm3
@@ -78303,7 +79231,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
.byte 15,194,220,1 // cmpltps %xmm4,%xmm3
- .byte 15,40,128,184,7,0,0 // movaps 0x7b8(%eax),%xmm0
+ .byte 15,40,128,180,7,0,0 // movaps 0x7b4(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,84,195 // andps %xmm3,%xmm0
@@ -78322,7 +79250,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,136,200,7,0,0 // movaps 0x7c8(%eax),%xmm1
+ .byte 15,40,136,196,7,0,0 // movaps 0x7c4(%eax),%xmm1
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,84,200 // andps %xmm0,%xmm1
@@ -78432,11 +79360,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f5c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call f8b4 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f5e6 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja f8da <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,76,2,0,0 // mov 0x24c(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -78444,14 +79372,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp f923 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp f923 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp f923 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -78477,7 +79405,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,64,12,0,0 // movdqa 0xc40(%ecx),%xmm3
+ .byte 102,15,111,153,60,12,0,0 // movdqa 0xc3c(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -78529,18 +79457,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja f770 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja fa64 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,104,2,0,0 // add 0x268(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp faa4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp faa4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp faa4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -78624,11 +79552,11 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f884 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
+ .byte 232,0,0,0,0 // call fb78 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f8aa <_sk_srcover_bgra_8888_sse2_lowp+0x66>
+ .byte 119,29 // ja fb9e <_sk_srcover_bgra_8888_sse2_lowp+0x66>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 139,132,145,80,2,0,0 // mov 0x250(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -78636,14 +79564,14 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,73 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,73 // jmp fbe7 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,100,183,16 // movups 0x10(%edi,%esi,4),%xmm4
- .byte 235,61 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,61 // jmp fbe7 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,43 // jmp fbe7 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -78669,7 +79597,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,244 // packssdw %xmm4,%xmm6
- .byte 102,15,111,153,124,9,0,0 // movdqa 0x97c(%ecx),%xmm3
+ .byte 102,15,111,153,120,9,0,0 // movdqa 0x978(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -78721,18 +79649,18 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja fa36 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
+ .byte 119,16 // ja fd2a <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
.byte 3,140,145,108,2,0,0 // add 0x26c(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,64 // jmp fd6a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,51 // jmp fd6a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,33 // jmp fd6a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -78852,11 +79780,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne fbe8 <.literal16+0xd8>
+ .byte 224,64 // loopne fed8 <.literal16+0xd8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne fbec <.literal16+0xdc>
+ .byte 224,64 // loopne fedc <.literal16+0xdc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne fbf0 <.literal16+0xe0>
+ .byte 224,64 // loopne fee0 <.literal16+0xe0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -78867,16 +79795,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fc11 <.literal16+0x101>
+ .byte 225,61 // loope ff01 <.literal16+0x101>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fc15 <.literal16+0x105>
+ .byte 225,61 // loope ff05 <.literal16+0x105>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fc19 <.literal16+0x109>
+ .byte 225,61 // loope ff09 <.literal16+0x109>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fc1d <.literal16+0x10d>
+ .byte 225,61 // loope ff0d <.literal16+0x10d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -78886,13 +79814,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fc37 <.literal16+0x127>
+ .byte 127,67 // jg ff27 <.literal16+0x127>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fc3b <.literal16+0x12b>
+ .byte 127,67 // jg ff2b <.literal16+0x12b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fc3f <.literal16+0x12f>
+ .byte 127,67 // jg ff2f <.literal16+0x12f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fc43 <.literal16+0x133>
+ .byte 127,67 // jg ff33 <.literal16+0x133>
.byte 0,0 // add %al,(%eax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
@@ -79048,13 +79976,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne fd59 <.literal16+0x249>
+ .byte 224,7 // loopne 10049 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne fd5d <.literal16+0x24d>
+ .byte 224,7 // loopne 1004d <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne fd61 <.literal16+0x251>
+ .byte 224,7 // loopne 10051 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne fd65 <.literal16+0x255>
+ .byte 224,7 // loopne 10055 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -79103,17 +80031,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg fdc4 <.literal16+0x2b4>
+ .byte 127,0 // jg 100b4 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fdc8 <.literal16+0x2b8>
+ .byte 127,0 // jg 100b8 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fdcc <.literal16+0x2bc>
+ .byte 127,0 // jg 100bc <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fdd0 <.literal16+0x2c0>
- .byte 119,115 // ja fe45 <.literal16+0x335>
+ .byte 127,0 // jg 100c0 <.literal16+0x2c0>
+ .byte 119,115 // ja 10135 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -79124,7 +80052,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne fda9 <.literal16+0x299>
+ .byte 117,191 // jne 10099 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -79140,7 +80068,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a43de6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
+ .byte 233,220,63,163,233 // jmp e9a440d6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a3459e>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -79236,16 +80164,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe ff33 <.literal16+0x423>
+ .byte 118,63 // jbe 10223 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe ff37 <.literal16+0x427>
+ .byte 118,63 // jbe 10227 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe ff3b <.literal16+0x42b>
+ .byte 118,63 // jbe 1022b <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe ff3f <.literal16+0x42f>
+ .byte 118,63 // jbe 1022f <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -79271,13 +80199,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl ff76 <.literal16+0x466>
+ .byte 124,66 // jl 10266 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl ff7a <.literal16+0x46a>
+ .byte 124,66 // jl 1026a <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl ff7e <.literal16+0x46e>
+ .byte 124,66 // jl 1026e <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl ff82 <.literal16+0x472>
+ .byte 124,66 // jl 10272 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -79323,25 +80251,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10005 <.literal16+0x4f5>
+ .byte 112,65 // jo 102f5 <.literal16+0x4f5>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10009 <.literal16+0x4f9>
+ .byte 112,65 // jo 102f9 <.literal16+0x4f9>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 1000d <.literal16+0x4fd>
+ .byte 112,65 // jo 102fd <.literal16+0x4fd>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10011 <.literal16+0x501>
+ .byte 112,65 // jo 10301 <.literal16+0x501>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg ffe3 <.literal16+0x4d3>
+ .byte 127,0 // jg 102d3 <.literal16+0x4d3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg ffe7 <.literal16+0x4d7>
+ .byte 127,0 // jg 102d7 <.literal16+0x4d7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg ffeb <.literal16+0x4db>
+ .byte 127,0 // jg 102db <.literal16+0x4db>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg ffef <.literal16+0x4df>
+ .byte 127,0 // jg 102df <.literal16+0x4df>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -79367,13 +80295,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 10028 <.literal16+0x518>
+ .byte 127,255 // jg 10318 <.literal16+0x518>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 1002c <.literal16+0x51c>
+ .byte 127,255 // jg 1031c <.literal16+0x51c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 10031 <.literal16+0x521>
+ .byte 127,0 // jg 10321 <.literal16+0x521>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -79387,13 +80315,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg 1009b <.literal16+0x58b>
+ .byte 127,71 // jg 1038b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 1009f <.literal16+0x58f>
+ .byte 127,71 // jg 1038f <.literal16+0x58f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 100a3 <.literal16+0x593>
+ .byte 127,71 // jg 10393 <.literal16+0x593>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 100a7 <.literal16+0x597>
+ .byte 127,71 // jg 10397 <.literal16+0x597>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -79490,13 +80418,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 1016e <.literal16+0x65e>
+ .byte 114,28 // jb 1045e <.literal16+0x65e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10172 <.literal16+0x662>
+ .byte 62,114,28 // jb,pt 10462 <.literal16+0x662>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10176 <.literal16+0x666>
+ .byte 62,114,28 // jb,pt 10466 <.literal16+0x666>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 1017a <.literal16+0x66a>
+ .byte 62,114,28 // jb,pt 1046a <.literal16+0x66a>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -79517,13 +80445,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg 101d3 <.literal16+0x6c3>
- .byte 114,249 // jb 1018f <.literal16+0x67f>
- .byte 127,63 // jg 101d7 <.literal16+0x6c7>
- .byte 114,249 // jb 10193 <.literal16+0x683>
- .byte 127,63 // jg 101db <.literal16+0x6cb>
- .byte 114,249 // jb 10197 <.literal16+0x687>
- .byte 127,63 // jg 101df <.literal16+0x6cf>
+ .byte 127,63 // jg 104c3 <.literal16+0x6c3>
+ .byte 114,249 // jb 1047f <.literal16+0x67f>
+ .byte 127,63 // jg 104c7 <.literal16+0x6c7>
+ .byte 114,249 // jb 10483 <.literal16+0x683>
+ .byte 127,63 // jg 104cb <.literal16+0x6cb>
+ .byte 114,249 // jb 10487 <.literal16+0x687>
+ .byte 127,63 // jg 104cf <.literal16+0x6cf>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -79619,14 +80547,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 10281 <.literal16+0x771>
- .byte 224,255 // loopne 10283 <.literal16+0x773>
- .byte 224,255 // loopne 10285 <.literal16+0x775>
- .byte 224,255 // loopne 10287 <.literal16+0x777>
- .byte 224,255 // loopne 10289 <.literal16+0x779>
- .byte 224,255 // loopne 1028b <.literal16+0x77b>
- .byte 224,255 // loopne 1028d <.literal16+0x77d>
- .byte 224,255 // loopne 1028f <.literal16+0x77f>
+ .byte 224,255 // loopne 10571 <.literal16+0x771>
+ .byte 224,255 // loopne 10573 <.literal16+0x773>
+ .byte 224,255 // loopne 10575 <.literal16+0x775>
+ .byte 224,255 // loopne 10577 <.literal16+0x777>
+ .byte 224,255 // loopne 10579 <.literal16+0x779>
+ .byte 224,255 // loopne 1057b <.literal16+0x77b>
+ .byte 224,255 // loopne 1057d <.literal16+0x77d>
+ .byte 224,255 // loopne 1057f <.literal16+0x77f>
.byte 15,0,15 // str (%edi)
.byte 0,15 // add %cl,(%edi)
.byte 0,15 // add %cl,(%edi)
@@ -79681,5 +80609,7 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 1034b <_sk_srcover_bgra_8888_sse2_lowp+0xb07>
+ .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%edi)
+ .byte 0,0 // add %al,(%eax)
+ .byte 127,67 // jg 10643 <_sk_srcover_bgra_8888_sse2_lowp+0xb0b>
#endif